Informazioni di riferimento sulle API REST di Azure OpenAI nei modelli Di Microsoft Foundry v1

Versione API: v1

Variabili del server:

Variabile Predefinito Descrizione
Endpoint Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com

Autenticazione

Chiave API

Passare una chiave API con l'intestazione api-key .

Token di autenticazione

Passare un token di autenticazione con l'intestazione authorization .

Oauth2authoauth20

Flusso: implicito

URL autorizzazione:https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Ambiti:

  • https://ai.azure.com/.default

Lotto

Creare un batch

POST {endpoint}/openai/v1/batches

Crea ed esegue un batch da un file caricato di richieste

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
completion_window Enum Intervallo di tempo entro il quale deve essere elaborato il batch. Attualmente è supportato solo 24h .
Valori possibili: 24h
Endpoint Enum Endpoint da usare per tutte le richieste nel batch. Attualmente /v1/chat/completions è supportato.
Valori possibili: /v1/chat/completions, /v1/embeddings
input_file_id Stringa ID di un file caricato che contiene le richieste per il nuovo batch.



Il file di input deve essere formattato come file JSON.
e devono essere caricati con lo scopo batch.
No

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i batch

GET {endpoint}/openai/v1/batches

Elencare i batch dell'organizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListBatchesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare batch

GET {endpoint}/openai/v1/batches/{batch_id}

Recupera un batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
batch_id Percorso Stringa ID del batch da recuperare.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il batch

POST {endpoint}/openai/v1/batches/{batch_id}/cancel

Annulla un batch in corso.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
batch_id Percorso Stringa ID del batch da annullare.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Chat

Creare il completamento della chat

POST {endpoint}/openai/v1/chat/completions

Crea un completamento della chat.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.CreateChatCompletionRequestAudio o null Parametri per l'output audio. Obbligatorio quando viene richiesto l'output audio con
modalities: ["audio"].
No
frequency_penalty number o null Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base a
la frequenza esistente nel testo fino a questo momento, riducendo il modello
probabilità di ripetere la stessa riga verbatim.
No
function_call string o OpenAI.ChatCompletionFunctionCallOption Deprecato a favore di tool_choice.
Controlla la funzione (se presente) chiamata dal modello.
none indica che il modello non chiamerà una funzione e genera invece un
Messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di un
Funzione.
Specifica di una funzione specifica tramite {"name": "my_function"} forza
modello per chiamare tale funzione.
none è l'impostazione predefinita quando non sono presenti funzioni. auto è il valore predefinito
se sono presenti funzioni.
No
Funzioni matrice di OpenAI.ChatCompletionFunctions Deprecato a favore di tools.
Un elenco di funzioni per cui il modello può generare input JSON.
No
logit_bias oggetto o null Modificare la probabilità che i token specificati vengano visualizzati nel completamento.
Accetta un oggetto JSON che esegue il mapping dei token (specificato dall'ID del token in
tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente
la distorsione viene aggiunta ai logits generati dal modello prima del campionamento.
L'effetto esatto varia in base al modello, ma i valori tra -1 e 1 devono
diminuire o aumentare la probabilità di selezione; valori come -100 o 100
deve comportare un divieto o una selezione esclusiva del token pertinente.
No
logprobs booleano o null Indica se restituire o meno le probabilità di log dei token di output. Se true,
restituisce le probabilità di log di ogni token di output restituito in
content di message.
No
max_completion_tokens integer o null Limite superiore per il numero di token che possono essere generati per un oggetto
completamento, inclusi token di output visibili e token di ragionamento.
No
max_tokens integer o null Numero massimo di token che possono essere generati nel completamento della chat.
Questo valore può essere usato per controllare i costi per il testo generato tramite API.

Questo valore è ora deprecato a favore di max_completion_tokense è
non compatibile con i modelli serie o1.
No
Messaggi matrice di OpenAI.ChatCompletionRequestMessage Elenco di messaggi che comprendono la conversazione finora. A seconda del
modello usato, tipi di messaggio diversi (modalità) supportati,
come testo, immagini e audio.
Metadati OpenAI.Metadata o Null No
Modalità OpenAI.ResponseModalities Tipi di output che si desidera generare il modello.
La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:
["text"]
Il gpt-4o-audio-preview modello può essere usato anche per
generare audio. Per richiedere che questo modello generi
sia di testo che di risposte audio, è possibile usare:
["text", "audio"]
No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
N integer o null Quante opzioni di completamento della chat generare per ogni messaggio di input. Si noti che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
Previsione OpenAI.PredictionContent Contenuto di output stimato statico, ad esempio il contenuto di un file di testo
rigenerato.
No
└> contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Contenuto che deve essere confrontato durante la generazione di una risposta del modello.
Se i token generati corrispondono a questo contenuto, l'intera risposta del modello
può essere restituito molto più rapidamente.
Tipo └* Enum Tipo di contenuto previsto da fornire. Questo tipo è
attualmente sempre content.
Valori possibili: content
presence_penalty number o null Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base a
se appaiono nel testo fino a questo momento, aumentando la probabilità del modello
per parlare di nuovi argomenti.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.CreateChatCompletionRequestResponseFormat Oggetto che specifica il formato che il modello deve restituire.
Impostazione di per abilitare { "type": "json_schema", "json_schema": {...} }
Output strutturati che assicurano che il modello corrisponda al codice JSON fornito
Schema. Altre informazioni negli output strutturati
guida
.
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No
Tipo └* OpenAI.CreateChatCompletionRequestResponseFormatType
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Seme integer o null Questa funzionalità è in versione beta.
Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
Fermare OpenAI.StopConfiguration Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.
Fino a quattro sequenze in cui l'API smetterà di generare altri token. Le
il testo restituito non conterrà la sequenza di interruzione.
No
Negozio booleano o null Indica se archiviare o meno l'output della richiesta di completamento della chat per
utilizzare nei prodotti di modellazione o di valutazione.
No
Flusso booleano o null Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
No
stream_options OpenAI.ChatCompletionStreamOptions o null No
Temperatura number o null No
tool_choice OpenAI.ChatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti.
No
Strumenti matrice di OpenAI.ChatCompletionTool o OpenAI.CustomToolChatCompletions Un elenco di strumenti che il modello può chiamare. È possibile fornire uno dei due
strumenti personalizzati o
strumenti per le funzioni.
No
top_logprobs integer o null No
top_p number o null No
Utente stringa (deprecata) Identificatore univoco che rappresenta l'utente finale, che può essere utile
monitorare e rilevare abusi.
No
user_security_context AzureUserSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. No
Dettaglio OpenAI.Verbosity Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno
risposte più concise, mentre valori più elevati generano risposte più dettagliate.
I valori attualmente supportati sono low, mediume high.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json oggetto o oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/chat/completions

Completamenti

Creare il completamento

POST {endpoint}/openai/v1/completions

Crea un completamento.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
best_of integer o null Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi.
Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire: best_of deve essere maggiore di n.
Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No
Eco booleano o null Ripetere la richiesta oltre al completamento No
frequency_penalty number o null Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim.
Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere.
No
logit_bias oggetto o null Modificare la probabilità che i token specificati vengano visualizzati nel completamento.
Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> .
No
logprobs integer o null Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.
Il valore massimo per logprobs è 5.
No
max_tokens integer o null Numero massimo di token che è possibile generare nel completamento.
Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. Codice Python di esempio per il conteggio dei token.
No
Modello Stringa ID del modello da usare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
N integer o null Numero di completamenti da generare per ogni richiesta.
Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No
presence_penalty number o null Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere.
No
prompt stringa o matrice di stringhe o null No
Seme integer o null Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
Fermare OpenAI.StopConfiguration Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.
Fino a quattro sequenze in cui l'API smetterà di generare altri token. Le
il testo restituito non conterrà la sequenza di interruzione.
No
Flusso booleano o null Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio. No
stream_options OpenAI.ChatCompletionStreamOptions o null No
Suffisso stringa o null Suffisso che segue un completamento del testo inserito.
Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No
Temperatura number o null Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No
top_p number o null Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No
Utente Stringa Altre informazioni. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/completions

Contenitori

Elencare i contenitori

GET {endpoint}/openai/v1/containers

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerListResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un contenitore

POST {endpoint}/openai/v1/containers

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.CreateContainerBodyExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
└* minuti Intero
file_ids matrice di stringhe ID di file da copiare nel contenitore. No
memory_limit Enum Limite di memoria facoltativo per il contenitore. Il valore predefinito è 1g.
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore da creare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare un contenitore

GET {endpoint}/openai/v1/containers/{container_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare un contenitore

DELETE {endpoint}/openai/v1/containers/{container_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da cui elencare i file.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileListResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un file contenitore

POST {endpoint}/openai/v1/containers/{container_id}/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore in cui creare un file.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
File Oggetto File (non nome file) da caricare. No
File_id Stringa Nome del file da creare. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa ID del file da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare il file del contenitore

DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa ID del file da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il contenuto del file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa ID del file da cui recuperare il contenuto.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/octet-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Conversazioni

Creare una conversazione

POST {endpoint}/openai/v1/conversations

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem o null No
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare la conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare la conversazione

POST {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da aggiornare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.
Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina conversazione

DELETE {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeletedConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli elementi della conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}/items

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione per cui elencare gli elementi.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordine in cui restituire gli elementi di input. Il valore predefinito è desc.
Dopo Query No Stringa ID elemento dopo l'elenco, utilizzato nella paginazione.
Includono Query No Matrice Specificare dati di output aggiuntivi da includere nella risposta del modello.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare elementi di conversazione

POST {endpoint}/openai/v1/conversations/{conversation_id}/items

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione a cui aggiungere l'elemento.
Includono Query No Matrice Campi aggiuntivi da includere nella risposta.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare l'elemento della conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione che contiene l'elemento.
item_id Percorso Stringa ID dell'elemento da recuperare.
Includono Query No Matrice Campi aggiuntivi da includere nella risposta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItem

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'elemento della conversazione

DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione che contiene l'elemento.
item_id Percorso Stringa ID dell'elemento da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Evals

Elenco valutazioni

GET {endpoint}/openai/v1/evals

Elencare le valutazioni per un progetto.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Identificatore per l'ultima valutazione della richiesta di paginazione precedente.
Limite Query No Intero Limite al numero di valori da restituire in una singola risposta impaginazione.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordine per le evals in base al timestamp. Usare asc per l'ordine crescente o
desc per ordine decrescente.
order_by Query No Stringa
Valori possibili: created_at, updated_at
Le eval possono essere ordinate in base all'ora di creazione o all'ora dell'ultimo aggiornamento. Utilizzare
created_at per l'ora di creazione o updated_at per l'ultimo aggiornamento
Tempo.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare eval

POST {endpoint}/openai/v1/evals

Creare la struttura di una valutazione che può essere usata per testare le prestazioni di un modello.

Una valutazione è un set di criteri di test e un'origine dati. Dopo aver creato una valutazione, è possibile eseguirla in modelli e parametri del modello diversi. Sono supportati diversi tipi di classificatori e origini dati.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
data_source_config OpenAI.CreateEvalCustomDataSourceConfig o OpenAI.CreateEvalLogsDataSourceConfig o OpenAI.CreateEvalStoredCompletionsDataSourceConfig Configurazione per l'origine dati utilizzata per le esecuzioni di valutazione. Determina lo schema dei dati usati nella valutazione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Nome della valutazione. No
Statuscode Enum
Valori possibili: 201
testing_criteria matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint Elenco di classificatori per tutte le esecuzioni di eval in questo gruppo. I classificatori possono fare riferimento a variabili nell'origine dati usando la notazione con parentesi graffe doppie, ad esempio {{item.variable_name}}. Per fare riferimento all'output del modello, usare lo sample spazio dei nomi (ad esempio, {{sample.output_text}}).

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'eval

GET {endpoint}/openai/v1/evals/{eval_id}

Recuperare una valutazione in base al relativo ID. Recupera una valutazione in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare eval

POST {endpoint}/openai/v1/evals/{eval_id}

Aggiornare le proprietà select, modificabili di una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.
Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
No
Nome Stringa No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina eval

DELETE {endpoint}/openai/v1/evals/{eval_id}

Eliminare una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere le esecuzioni di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Recuperare un elenco di esecuzioni per una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
Dopo Query No Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Stato Query No Stringa
Valori possibili: queued, in_progresscompleted, , canceled,failed

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare l'esecuzione di eval

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Creare una nuova esecuzione di valutazione, iniziando il processo di valutazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Dettagli sull'origine dati dell'esecuzione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Nome dell'esecuzione. No

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Recuperare un'esecuzione di valutazione specifica in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare l'esecuzione di eval

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Annullare un'esecuzione di valutazione specifica in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'esecuzione di eval

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Eliminare una valutazione specifica eseguita dal relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere gli elementi di output dell'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Ottenere un elenco di elementi di output per un'esecuzione di valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa
Dopo Query No Stringa
Limite Query No Intero
Stato Query No Stringa
Valori possibili: fail, pass
Ordine Query No Stringa
Valori possibili: asc, desc

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunOutputItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'elemento di output dell'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Recuperare un elemento di output specifico da un'esecuzione di valutazione in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa
output_item_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunOutputItem

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

File

Creare un file

POST {endpoint}/openai/v1/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after Oggetto
Ancoraggio └* AzureFileExpiryAnchor
└> secondi Intero
File Oggetto File (non nome file) da caricare.
Scopo Enum Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati eval
Valori possibili: assistants, batch, fine-tune, evals

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/files

Elencare i file

GET {endpoint}/openai/v1/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Scopo Query No Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il file

GET {endpoint}/openai/v1/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina file

DELETE {endpoint}/openai/v1/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteFileResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Scaricare il file

GET {endpoint}/openai/v1/files/{file_id}/content

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/octet-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Incorporamenti

Creare l'incorporamento

POST {endpoint}/openai/v1/embeddings

Crea un vettore di incorporamento che rappresenta il testo di input.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Dimensioni Intero Numero di dimensioni che devono essere presenti gli incorporamenti di output risultanti. Supportato solo nei text-embedding-3 modelli e versioni successive.
Vincoli: min: 1
No
encoding_format Enum Formato in cui restituire gli incorporamenti. Può essere float o base64.
Valori possibili: float, base64
No
Input stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice Testo di input da incorporare, codificato come stringa o matrice di token. Per incorporare più input in una singola richiesta, passare una matrice di stringhe o una matrice di matrici di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta.
Modello Stringa ID del modello da usare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
Utente Stringa Altre informazioni. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.CreateEmbeddingResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/embeddings

Messa

Eseguire grader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Eseguire un grader.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione.
Elemento OpenAI.RunGraderRequestItem No
model_sample Stringa Esempio di modello da valutare. Questo valore verrà usato per popolare
spazio sample dei nomi. Per altri dettagli, vedere la guida .
La output_json variabile verrà popolata se l'esempio di modello è un
stringa JSON valida.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunGraderResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Convalidare il classificatore

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Convalidare un classificatore.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ValidateGraderResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare le autorizzazioni del checkpoint di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Elencare le autorizzazioni del checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per cui ottenere le autorizzazioni.
project_id Query No Stringa ID del progetto per cui ottenere le autorizzazioni.
Dopo Query No Stringa Identificatore per l'ultimo ID autorizzazione della richiesta di paginazione precedente.
Limite Query No Intero Numero di autorizzazioni da recuperare.
Ordine Query No Stringa
Valori possibili: ascending, descending
Ordine in cui recuperare le autorizzazioni.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un'autorizzazione per il checkpoint di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Creare autorizzazioni di checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per la creazione di un'autorizzazione.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
project_ids matrice di stringhe Identificatori del progetto a cui concedere l'accesso.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'autorizzazione del checkpoint di ottimizzazione fine

DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}

Eliminare l'autorizzazione del checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per l'eliminazione di un'autorizzazione.
permission_id Percorso Stringa ID dell'autorizzazione del checkpoint del modello ottimizzata da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un processo di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/jobs

Crea un processo di ottimizzazione che inizia il processo di creazione di un nuovo modello da un determinato set di dati.

La risposta include i dettagli del processo accodato, inclusi lo stato del processo e il nome dei modelli ottimizzati al termine.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.CreateFineTuningJobRequestHyperparameters No
└batch_size stringa o integer No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Integrazioni matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null Elenco di integrazioni da abilitare per il processo di ottimizzazione. No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare una delle
modelli supportati.
Seme integer o null Il valore di inizializzazione controlla la riproducibilità del processo. Il passaggio degli stessi parametri di inizializzazione e processo dovrebbe produrre gli stessi risultati, ma può differire in rari casi.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
No
Suffisso stringa o null Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.
Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No
training_file Stringa ID di un file caricato che contiene i dati di training.
Per informazioni su come caricare un file, vedere Caricare un file.
Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.
Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza .
Per altri dettagli, vedere la guida all'ottimizzazione .
validation_file stringa o null ID di un file caricato che contiene i dati di convalida.
Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in
file dei risultati di ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida.
Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.
Per altri dettagli, vedere la guida all'ottimizzazione .
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i processi di ottimizzazione delle prestazioni impaginati

GET {endpoint}/openai/v1/fine_tuning/jobs

Elencare i processi di ottimizzazione dell'organizzazione

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Identificatore per l'ultimo processo della richiesta di impaginazione precedente.
Limite Query No Intero Numero di processi di ottimizzazione da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare un processo di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Ottenere informazioni su un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Annullare immediatamente un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da annullare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i checkpoint dei processi di ottimizzazione

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Elencare i checkpoint per un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione per cui ottenere i checkpoint.
Dopo Query No Stringa Identificatore dell'ultimo ID del checkpoint della richiesta di impaginazione precedente.
Limite Query No Intero Numero di checkpoint da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottimizzazione - Checkpoint di copia

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Crea una copia di un checkpoint di ottimizzazione fine nell'account e nell'area di destinazione specificati.

NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa
fine_tuning_checkpoint_id Percorso Stringa

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
aoai-copy-ft-checkpoints Vero Stringa
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'.
Accettare Vero Stringa
Valori possibili: application/json

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione da copiare.
Regione Stringa Area in cui copiare il modello.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json CopyModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottimizzazione - Ottenere un checkpoint

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Ottiene lo stato di una copia del checkpoint di ottimizzazione.

NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa
fine_tuning_checkpoint_id Percorso Stringa

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
aoai-copy-ft-checkpoints Vero Stringa
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'.
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json CopyModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli eventi di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Ottenere gli aggiornamenti dello stato per un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione per cui ottenere gli eventi.
Dopo Query No Stringa Identificatore per l'ultimo evento della richiesta di paginazione precedente.
Limite Query No Intero Numero di eventi da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningJobEventsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Sospendere il processo di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Sospendere un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da sospendere.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Riprendere il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Riprendere un processo di ottimizzazione sospeso.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da riprendere.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modelli

Elencare i modelli

GET {endpoint}/openai/v1/models

Elenca i modelli attualmente disponibili e fornisce informazioni di base su ognuna, ad esempio il proprietario e la disponibilità.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListModelsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il modello

GET {endpoint}/openai/v1/models/{model}

Recupera un'istanza del modello, fornendo informazioni di base sul modello, ad esempio il proprietario e l'autorizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Modello Percorso Stringa ID del modello da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Model

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare un modello

DELETE {endpoint}/openai/v1/models/{model}

Elimina un'istanza del modello.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Modello Percorso Stringa ID del modello da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Realtime

Creare una chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls

Creare una nuova chiamata API realtime su WebRTC e ricevere la risposta SDP necessaria per completare la connessione peer.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
Sdp Stringa Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante.
Sessione OpenAI.RealtimeSessionCreateRequestGA Configurazione dell'oggetto sessione in tempo reale. No
└* audio OpenAI.RealtimeSessionCreateRequestGAAudio Configurazione per l'input e l'output audio. No
└* include matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
└* istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
└max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modello └* Stringa Modello in tempo reale utilizzato per questa sessione. No
└output_modalities matrice di stringhe Il set di modalità con cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Modalità di scelta degli strumenti da parte del modello. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No Automatico
Strumenti └* matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
└> traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No Automatico
└\ troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
Tipo └* Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/sdp Stringa

Intestazioni di risposta:

Intestazione Digitare Descrizione
Posizione Stringa URL relativo contenente l'ID chiamata per le richieste di controllo successive.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Accettare una chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept

Accettare una chiamata SIP in ingresso e configurare la sessione in tempo reale che la gestirà.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateRequestGAAudio No
Input └* OpenAI.RealtimeSessionCreateRequestGAAudioInput No
└* output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
output_modalities matrice di stringhe Il set di modalità con cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Modalità di scelta degli strumenti da parte del modello. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
Traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
digitare Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Hang up realtime call (Hang up realtime call)

POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup

Terminare una chiamata API realtime attiva, indipendentemente dal fatto che sia stata avviata tramite SIP o WebRTC.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Fare riferimento alla chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer

Trasferire una chiamata SIP attiva a una nuova destinazione usando il verbo SIP REFER.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
target_uri Stringa URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori come
tel:+14155550123 o sip:agent\@example.com.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Rifiuta chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject

Rifiutare una chiamata SIP in ingresso restituendo un codice di stato SIP al chiamante.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
status_code Intero Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)
quando viene omesso.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un segreto client in tempo reale

POST {endpoint}/openai/v1/realtime/client_secrets

Creare un segreto client in tempo reale con una configurazione di sessione associata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter No
Ancoraggio └* Enum
Valori possibili: created_at
No
└> secondi Intero Vincoli: min: 10, max: 7200 No 600
Sessione OpenAI.RealtimeSessionCreateRequestUnion No
Tipo └* OpenAI.RealtimeSessionCreateRequestUnionType

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeCreateClientSecretResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare una sessione in tempo reale

POST {endpoint}/openai/v1/realtime/sessions

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw. No
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription No
Modello └* Stringa No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modalità matrice di stringhe Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No ['text', 'audio']
output_audio_format Stringa Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw. No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
Velocità Numero Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è
la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo
tra i turni del modello, non mentre è in corso una risposta.
Vincoli: min: 0,25, max: 1,5
No 1
Temperatura Numero Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Il valore predefinito è 0,8. No
tool_choice Stringa Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeSessionCreateRequestTools Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime
Voce OpenAI.VoiceIdsShared No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeSessionCreateResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare una sessione di trascrizione in tempo reale

POST {endpoint}/openai/v1/realtime/transcription_sessions

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime specificamente per le trascrizioni in tempo reale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Includono matrice di stringhe Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
item.input_audio_transcription.logprobs
No
input_audio_format Enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,
singolo canale (mono) e ordine dei byte little-endian.
Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction No
Tipo └* OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Lingua dell'audio di input. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Enum
Valori possibili: server_vad
No
digitare Enum
Valori possibili: transcription

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeTranscriptionSessionCreateResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Risposte

Creare una risposta

POST {endpoint}/openai/v1/responses

Crea una risposta del modello.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
Conversazione OpenAI.ConversationParam o null No
Includono matrice di OpenAI.IncludeEnum o null No
Input OpenAI.InputParam Input di testo, immagine o file nel modello, usato per generare una risposta.
Ulteriori informazioni:
- Input di testo e output
- Input dell'immagine
- Input di file
- Stato conversazione
- Chiamata di funzione
No
Istruzioni stringa o null No
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
parallel_tool_calls booleano o null No
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Negozio booleano o null No
Flusso booleano o null No
stream_options OpenAI.ResponseStreamOptions o null No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto
text/event-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/responses

Ottenere la risposta

GET {endpoint}/openai/v1/responses/{response_id}

Recupera una risposta del modello con l'ID specificato.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa
include[] Query No Matrice Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il parametro di inclusione per la creazione della risposta precedente.
Flusso Query No Boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server.
starting_after Query No Intero Numero di sequenza dell'evento dopo il quale avviare lo streaming.
include_obfuscation Query No Boolean Se true, l'offuscamento del flusso verrà abilitato. L'offuscamento del flusso aggiunge caratteri casuali a un obfuscation campo sugli eventi delta di streaming per normalizzare le dimensioni del payload come mitigazione di determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità di overhead al flusso di dati. È possibile impostare su include_obfuscation false per ottimizzare la larghezza di banda se si considera attendibile i collegamenti di rete tra l'applicazione e l'API OpenAI.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare la risposta

DELETE {endpoint}/openai/v1/responses/{response_id}

Elimina una risposta in base all'ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annulla risposta

POST {endpoint}/openai/v1/responses/{response_id}/cancel

Annulla una risposta del modello con l'ID specificato. È possibile annullare solo le risposte create con il parametro in background impostato su true.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli elementi di input

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Restituisce un elenco di elementi di input per una determinata risposta.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ResponseItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Discussioni

Creare un thread

POST {endpoint}/openai/v1/threads

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Messaggi matrice di OpenAI.CreateMessageRequest Elenco di messaggi con cui avviare il thread. No
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.CreateThreadRequestToolResources o null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare ed eseguire

POST {endpoint}/openai/v1/threads/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer o null Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
max_prompt_tokens integer o null Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. No
Thread OpenAI.CreateThreadRequest Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un
request, verrà creato un thread vuoto.
No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tool_resources OpenAI.CreateThreadAndRunRequestToolResources o null Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. No
Strumenti matrice di OpenAI.AssistantTool Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number o null Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina thread

DELETE {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteThreadResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il thread

GET {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare il thread

POST {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.ModifyThreadRequestToolResources o null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i messaggi

GET {endpoint}/openai/v1/threads/{thread_id}/messages

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa
run_id Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListMessagesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un messaggio

POST {endpoint}/openai/v1/threads/{thread_id}/messages

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Allegati matrice di OpenAI.CreateMessageRequestAttachments o null No
Contenuto stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject
Metadati OpenAI.Metadata o Null No
Ruolo Enum Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.
Valori possibili: user, assistant

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina messaggio

DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteMessageResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il messaggio

GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare il messaggio

POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
additional_instructions stringa o null Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. No
additional_messages matrice di OpenAI.CreateMessageRequest o null Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. No
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Esegue l'override delle istruzioni dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer o null Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
max_prompt_tokens integer o null Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
Strumenti matrice di OpenAI.AssistantTool Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number o null Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare le esecuzioni

GET {endpoint}/openai/v1/threads/{thread_id}/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListRunsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare l'esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annulla esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i passaggi di esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListRunStepsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere il passaggio di esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa
step_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunStepObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Inviare output dello strumento per l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Flusso booleano o null No
tool_outputs matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs Elenco di strumenti per i quali vengono inviati gli output.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Archivi vettoriali

Elencare gli archivi vettoriali

GET {endpoint}/openai/v1/vector_stores

Restituisce un elenco di archivi vettoriali.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoresResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un archivio vettoriale

POST {endpoint}/openai/v1/vector_stores

Crea un archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
Descrizione Stringa Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. No
expires_after OpenAI.VectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. No
Metadati OpenAI.Metadata o Null No
Nome Stringa Nome dell'archivio vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/vector_stores

Ottenere l'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Recupera un archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare l'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Modifica un archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale da modificare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.VectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
Metadati OpenAI.Metadata o Null No
Nome stringa o null Nome dell'archivio vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Eliminare un archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteVectorStoreResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un batch di file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Creare un batch di file di archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale per il quale creare un batch di file.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. No
File matrice di OpenAI.CreateVectorStoreFileRequest Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere un batch di file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Recupera un batch di file dell'archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id Percorso Stringa ID del batch di file recuperato.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il batch di file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Annullare un batch di file dell'archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id Percorso Stringa ID del batch di file da annullare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file nel batch dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Restituisce un elenco di file dell'archivio vettoriale in un batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id Percorso Stringa ID del batch di file a cui appartengono i file.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
Filtro Query No Stringa
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Restituisce un elenco di file dell'archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartengono i file.
Limite Query No Intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
Filtro Query No Stringa
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale per il quale creare un file.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
File_id Stringa ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere il file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Recupera un file di archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartiene il file.
File_id Percorso Stringa ID del file da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare gli attributi del file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa
File_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare il file dell'archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Eliminare un file dell'archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint dell'endpoint del file di eliminazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale a cui appartiene il file.
File_id Percorso Stringa ID del file da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteVectorStoreFileResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il contenuto del file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content

Recuperare il contenuto del file dell'archivio vettoriale

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale da cercare.
File_id Percorso Stringa ID del file per il quale recuperare il contenuto.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreSearchResultsPage

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Archivio vettoriale di ricerca

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search

Archivio vettoriale di ricerca

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale da cercare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.ComparisonFilter o OpenAI.CompoundFilter Filtro da applicare in base agli attributi del file. No
max_num_results Intero Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi.
Vincoli: min: 1, max: 50
No 10
Query stringa o matrice di stringhe Stringa di query per una ricerca
ranking_options OpenAI.VectorStoreSearchRequestRankingOptions No
└* ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
└score_threshold Numero Vincoli: min: 0, max: 1 No
rewrite_query Boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreSearchResultsPage

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Componenti

AudioSegment

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Probabilità di log media associata a questo segmento audio.
compression_ratio Numero Rapporto di compressione di questo segmento audio.
Fine Numero Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto.
Id Intero Indice in base 0 di questo segmento all'interno di una traduzione.
no_speech_prob Numero Probabilità di nessun rilevamento vocale all'interno di questo segmento audio.
Cercare Intero Posizione di ricerca associata all'elaborazione di questo segmento audio.
Le posizioni di ricerca vengono espresse come centesimi di secondi.
Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai
una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a
posizione di ricerca associata del segmento.
Iniziare Numero Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto.
Temperatura Numero Punteggio di temperatura associato a questo segmento audio.
Testo Stringa Testo tradotto che faceva parte di questo segmento audio.
Token matrice di numeri interi ID token corrispondenti al testo tradotto in questo segmento audio.

AudioTaskLabel

Definisce i descrittori possibili per le risposte alle operazioni audio disponibili.

Proprietà Valore
Descrizione Definisce i descrittori possibili per le risposte alle operazioni audio disponibili.
Digitare Stringa
Valori transcribe
translate

AudioTranslationSegment

Informazioni estese su un singolo segmento di dati audio tradotti. I segmenti rappresentano in genere circa 5-10 secondi di parlato. I limiti dei segmenti si verificano in genere tra parole, ma non necessariamente frasi.

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Probabilità di log media associata a questo segmento audio.
compression_ratio Numero Rapporto di compressione di questo segmento audio.
Fine Numero Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto.
Id Intero Indice in base 0 di questo segmento all'interno di una traduzione.
no_speech_prob Numero Probabilità di nessun rilevamento vocale all'interno di questo segmento audio.
Cercare Intero Posizione di ricerca associata all'elaborazione di questo segmento audio.
Le posizioni di ricerca vengono espresse come centesimi di secondi.
Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai
una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a
posizione di ricerca associata del segmento.
Iniziare Numero Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto.
Temperatura Numero Punteggio di temperatura associato a questo segmento audio.
Testo Stringa Testo tradotto che faceva parte di questo segmento audio.
Token matrice di numeri interi ID token corrispondenti al testo tradotto in questo segmento audio.

AzureAIFoundryModelsApiVersion

Proprietà Valore
Digitare Stringa
Valori v1
preview

AzureAudioTranscriptionResponse

Informazioni sui risultati per un'operazione che trascrive l'audio parlato in testo scritto.

Nome Digitare Descrizione Obbligatorio Predefinito
Durata Numero Durata totale dell'audio elaborato per produrre informazioni di trascrizione a corredo. No
Lingua Stringa Lingua parlata rilevata nei dati audio trascritti.
Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'.
No
Segmenti matrice di OpenAI.TranscriptionSegment Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. No
Attività AudioTaskLabel Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. No
Testo Stringa Testo trascritto per i dati audio forniti.
Parole matrice di OpenAI.TranscriptionWord Raccolta di informazioni sulla tempistica di ogni parola elaborata. No

AzureAudioTranslationResponse

Informazioni sui risultati per un'operazione che ha tradotto l'audio parlato in testo scritto.

Nome Digitare Descrizione Obbligatorio Predefinito
Durata Numero Durata totale dell'audio elaborato per produrre informazioni di traduzione accompagnate. No
Lingua Stringa Lingua parlata rilevata nei dati audio tradotti.
Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'.
No
Segmenti matrice di AudioTranslationSegment Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. No
Attività AudioTaskLabel Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. No
Testo Stringa Testo tradotto per i dati audio forniti.

AzureCompletionsSamplingParams

Parametri di campionamento per controllare il comportamento dei completamenti.

Nome Digitare Descrizione Obbligatorio Predefinito
max_completion_tokens Intero No
max_tokens Intero Numero massimo di token nell'output generato. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più elevata aumenta la casualità negli output. No 1
Strumenti matrice di OpenAI.ChatCompletionTool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; 1.0 include tutti i token. No 1

AzureContentFilterBlocklistIdResult

Elemento del risultato del filtro contenuto che associa un ID elenco di blocchi personalizzato esistente a un valore che indica se l'elenco di blocchi corrispondente ha causato il filtro del contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtrata Boolean Indica se l'elenco di blocchi associato ha causato il filtro del contenuto.
Id Stringa ID dell'elenco di blocchi personalizzato associato allo stato filtrato.

AzureContentFilterBlocklistResult

Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
Filtrata Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.

AzureContentFilterCompletionTextSpan

Rappresentazione di un intervallo di testo di completamento usato dai risultati del filtro del contenuto OpenAI di Azure.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_end_offset Intero Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoti.
completion_start_offset Intero Offset del punto di codice UTF32 che inizia l'intervallo.

AzureContentFilterCompletionTextSpanDetectionResult

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di AzureContentFilterCompletionTextSpan Informazioni dettagliate sugli intervalli di testo di completamento rilevati.
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterCustomTopicIdResult

Elemento del risultato del filtro contenuto che associa un ID argomento personalizzato esistente a un valore che indica se l'argomento corrispondente ha causato o meno il rilevamento del contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se l'argomento personalizzato associato ha generato il rilevamento del contenuto.
Id Stringa ID dell'argomento personalizzato associato allo stato rilevato.

AzureContentFilterCustomTopicResult

Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
Filtrata Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.

AzureContentFilterDetectionResult

Elemento del risultato del filtro contenuto con etichetta che indica se il contenuto è stato rilevato e se il contenuto è stato filtrato.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterForResponsesAPI

Nome Digitare Descrizione Obbligatorio Predefinito
Bloccato Boolean Indicare se la risposta è bloccata.
content_filter_offsets AzureContentFilterResultOffsets
content_filter_results AzureContentFilterResultsForResponsesAPI
└custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro binario per gli elenchi di blocchi personalizzati configurati. No
└custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro binario per gli argomenti personalizzati configurati. No
Errore └* Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
└> odio AzureContentFilterSeverityResult Categoria di filtro contenuto che può fare riferimento a qualsiasi contenuto che attacca o usa pejorative o discriminatorio
lingua con riferimento a una persona o a un gruppo di identità in base a determinati attributi di differenziazione di questi gruppi
incluso, ma non limitato alla razza, etnia, nazionalità, identità di genere ed espressione, orientamento sessuale,
religione, stato di immigrazione, stato abilità, aspetto personale, e dimensioni del corpo.
No
└indirect_attack AzureContentFilterDetectionResult Risultato del rilevamento che descrive gli attacchi ai sistemi basati su modelli di intelligenza artificiale generativi che possono verificarsi ogni volta
un'applicazione elabora le informazioni che non sono stati creati direttamente dallo sviluppatore dell'applicazione o
l'utente.
No
└* jailbreak AzureContentFilterDetectionResult Risultato del rilevamento che descrive gli attacchi di tipo prompt degli utenti, in cui gli utenti malintenzionati sfruttano deliberatamente
vulnerabilità di sistema per l'annullamento di comportamenti non autorizzati da LLM. Ciò potrebbe causare contenuti inappropriati
generazione o violazioni delle restrizioni imposte dal sistema.
└personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento che descrive le corrispondenze con informazioni personali con sottocategorie configurabili. No
└* volgarità AzureContentFilterDetectionResult Risultato di rilevamento che identifica se il linguaggio grezzo, volgare o in altro modo obiezione è presente nel
Contenuto.
No
└protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└protected_material_text AzureContentFilterDetectionResult Risultato del rilevamento che descrive una corrispondenza con il testo protetto da copyright o altro stato. No
└self_harm AzureContentFilterSeverityResult Categoria di filtro del contenuto che descrive il linguaggio correlato alle azioni fisiche destinate a ferire intenzionalmente, ferire,
danneggiare il corpo o uccidersi.
No
└* sessuale AzureContentFilterSeverityResult Una categoria di filtro del contenuto per il linguaggio correlato a organi anatomici e genitali, relazioni romantiche, atti
ritratto in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli rappresentati come un
aggressione o atto violento sessuale forzato contro la volontà, la prostituzione, la pornografia e l'abuso.
No
└task_adherence AzureContentFilterDetectionResult Risultato del rilevamento che indica se il flusso di esecuzione continua a mantenere il piano.
└ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
└* violenza AzureContentFilterSeverityResult Categoria di filtro del contenuto per la lingua correlata alle azioni fisiche destinate a ferire, ferire, danneggiare o uccidere
qualcuno o qualcosa; descrive armi, armi e entità correlate, ad esempio fabbricazioni, associazioni,
legislazione, e così via.
No
source_type Stringa Nome del tipo di origine del messaggio.

AzureContentFilterHarmExtensions

Estensioni per categorie dannose, fornendo opzioni di configurazione aggiuntive.

Nome Digitare Descrizione Obbligatorio Predefinito
pii_sub_categories matrice di AzurePiiSubCategory Configurazione per PIIHarmSubCategory.Configuration for PIIHarmSubCategory(s). No

AzureContentFilterImagePromptResults

Risultato di un filtro contenuto per il contenuto della richiesta di input di un'operazione di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterImageResponseResults

Risultato di un filtro contenuto per il contenuto della risposta di output di un'operazione di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterPersonallyIdentifiableInformationResult

Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No

AzureContentFilterResultForChoice

Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo.

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. No
└redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
└sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_text AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterResultForPrompt

Risultato di un filtro contenuto associato a un singolo elemento del prompt di input in un sistema di intelligenza artificiale generativo.

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results Oggetto Dettagli della categoria del filtro contenuto per il risultato. No
└custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
└custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore └* Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
└> odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└indirect_attack AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└* jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└* volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└* sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└* violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
prompt_index Intero Indice del prompt di input associato alle categorie di risultati del filtro contenuto associato. No

AzureContentFilterResultOffsets

Nome Digitare Descrizione Obbligatorio Predefinito
check_offset Intero
end_offset Intero
start_offset Intero

AzureContentFilterResultsForResponsesAPI

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
indirect_attack AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
Jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. No
└redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
└sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_text AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
task_adherence AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterSeverityResult

Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato filtrato e quale livello di gravità qualitativo del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtrata Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
Gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureFileExpiryAnchor

Proprietà Valore
Digitare Stringa
Valori created_at

AzureFineTuneReinforcementMethod

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint
iperparametri OpenAI.FineTuneReinforcementHyperparameters Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo. No
response_format ResponseFormatJSONSchemaRequest No
└json_schema Oggetto Schema JSON per il formato di risposta
Tipo └* Enum Tipo di formato di risposta
Valori possibili: json_schema

AzurePiiSubCategory

Configurazione per singole estensioni PIIHarmSubCategory all'interno del framework delle estensioni dannose.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevare Boolean Indica se il rilevamento è abilitato per questa sottocategoria.
Filtro Boolean Indica se il contenuto contenente questa sottocategoria deve essere bloccato.
redact Boolean Indica se il contenuto contenente questa sottocategoria deve essere redatto.
sub_category Stringa PIIHarmSubCategory configurato.

AzurePiiSubCategoryResult

Dettagli dei risultati per singoli PIIHarmSubCategory.Result details for individual PIIHarmSubCategory(s).

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la sottocategoria contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto per questa sottocategoria.
Redatto Boolean Indica se il contenuto è stato redatto per questa sottocategoria.
sub_category Stringa PIIHarmSubCategory valutato.

AzureResponsesSamplingParams

Parametri di campionamento per controllare il comportamento delle risposte.

Nome Digitare Descrizione Obbligatorio Predefinito
max_tokens Intero Numero massimo di token nell'output generato. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più elevata aumenta la casualità negli output. No 1
Testo OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText No
Strumenti matrice di OpenAI.Tool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; 1.0 include tutti i token. No 1

AzureUserSecurityContext

Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud.

Nome Digitare Descrizione Obbligatorio Predefinito
application_name Stringa Nome dell'applicazione. Le informazioni personali riservate non devono essere incluse in questo campo. No
end_user_id Stringa Questo identificatore è l'ID utente microsoft Entra (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di intelligenza artificiale generativa. Le informazioni personali riservate non devono essere incluse in questo campo. No
end_user_tenant_id Stringa ID tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. No
source_ip Stringa Acquisisce l'indirizzo IP del client originale. No

CopiedAccountDetails

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione in cui è stato copiato il modello.
Regione Stringa Area in cui è stato copiato il modello.
Stato Enum Stato dell'operazione di copia.
Valori possibili: Completed, Failed, InProgress

CopyModelRequest

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione da copiare.
Regione Stringa Area in cui copiare il modello.

CopyModelResponse

Nome Digitare Descrizione Obbligatorio Predefinito
checkpointedModelName Stringa ID del modello copiato.
copiedAccountDetails matrice di CopiedAccountDetails ID dell'ID risorsa di destinazione in cui è stato copiato
fineTuningJobId Stringa ID del processo di ottimizzazione da cui è stato copiato il checkpoint.

CreateVideoBody

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa Nome della distribuzione da usare per questa richiesta.
prompt Stringa Richiesta di testo che descrive il video da generare.
Vincoli: minLength: 1
Secondi VideoSecondi Durate di clip supportate, misurate in secondi. No 4
Dimensione VideoSize Dimensioni di output formattate come {width}x{height}. No 720x1280

CreateVideoBodyWithInputReference

Proprietà di una richiesta di processo di generazione video con file multimediali.

Nome Digitare Descrizione Obbligatorio Predefinito
input_reference Oggetto Informazioni di riferimento facoltative sulle immagini che guidano la generazione.
Modello Oggetto Nome della distribuzione da usare per questa richiesta.
prompt Oggetto Richiesta di testo che descrive il video da generare.
Secondi Oggetto Durata clip in secondi. Il valore predefinito è 4 secondi. No
Dimensione Oggetto Risoluzione di output formattata come larghezza x altezza. Il valore predefinito è 720x1280. No

CreateVideoRemixBody

Parametri per il remixing di un video generato esistente.

Nome Digitare Descrizione Obbligatorio Predefinito
prompt Stringa Richiesta di testo aggiornata che indirizza la generazione del remix.
Vincoli: minLength: 1

DeletedVideoResource

Payload di conferma restituito dopo l'eliminazione di un video.

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean Indica che la risorsa video è stata eliminata. Vero
Id Stringa Identificatore del video eliminato.
Oggetto Stringa Tipo di oggetto che segnala la risposta di eliminazione. video.deleted

Errore

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa
Messaggio Stringa

EvalGraderEndpoint

Nome Digitare Descrizione Obbligatorio Predefinito
Intestazioni oggetto o null Intestazioni HTTP facoltative da includere nelle richieste all'endpoint No
Nome Stringa Nome del grader
pass_threshold number o null Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato
Se non specificato, tutti i punteggi vengono considerati validi
No
rate_limit integer o null Limite di frequenza facoltativo per le richieste al secondo all'endpoint
Deve essere un numero intero positivo
No
digitare Enum
Valori possibili: endpoint
Url Stringa URL HTTPS dell'endpoint da chiamare per la classificazione
Vincoli: modello: ^https://

GraderEndpoint

Configurazione dell'endpoint grader per la valutazione esterna dell'endpoint HTTP

Nome Digitare Descrizione Obbligatorio Predefinito
Intestazioni oggetto o null Intestazioni HTTP facoltative da includere nelle richieste all'endpoint No
Nome Stringa Nome del grader
pass_threshold number o null Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato
Se non specificato, tutti i punteggi vengono considerati validi
No
rate_limit integer o null Limite di frequenza facoltativo per le richieste al secondo all'endpoint
Deve essere un numero intero positivo
No
digitare Enum
Valori possibili: endpoint
Url Stringa URL HTTPS dell'endpoint da chiamare per la classificazione
Vincoli: modello: ^https://

OpenAI.Annotation

Annotazione applicabile a un intervallo di testo di output.

Discriminare per OpenAI.Annotation

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
file_citation OpenAI.FileCitationBody
url_citation OpenAI.UrlCitationBody
container_file_citation OpenAI.ContainerFileCitationBody
file_path OpenAI.FilePath
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.AnnotationType

OpenAI.AnnotationType

Proprietà Valore
Digitare Stringa
Valori file_citation
url_citation
container_file_citation
file_path

OpenAI.ApplyPatchCallOutputStatus

Proprietà Valore
Digitare Stringa
Valori completed
failed

OpenAI.ApplyPatchCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed

OpenAI.ApplyPatchCreateFileOperation

Istruzioni che descrivono come creare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Diff Stringa Diff da applicare.
Percorso Stringa Percorso del file da creare.
digitare Enum Creare un nuovo file con la diff fornita.
Valori possibili: create_file

OpenAI.ApplyPatchDeleteFileOperation

Istruzioni che descrivono come eliminare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Percorso Stringa Percorso del file da eliminare.
digitare Enum Eliminare il file specificato.
Valori possibili: delete_file

OpenAI.ApplyPatchFileOperation

Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.

Discriminare per OpenAI.ApplyPatchFileOperation

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
create_file OpenAI.ApplyPatchCreateFileOperation
delete_file OpenAI.ApplyPatchDeleteFileOperation
update_file OpenAI.ApplyPatchUpdateFileOperation
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ApplyPatchFileOperationType

OpenAI.ApplyPatchFileOperationType

Proprietà Valore
Digitare Stringa
Valori create_file
delete_file
update_file

OpenAI.ApplyPatchToolParam

Consente all'assistente di creare, eliminare o aggiornare i file usando differenze unificate.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dello strumento. Sempre apply_patch.
Valori possibili: apply_patch

OpenAI.ApplyPatchUpdateFileOperation

Istruzioni che descrivono come aggiornare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Diff Stringa Diff da applicare.
Percorso Stringa Percorso del file da aggiornare.
digitare Enum Aggiornare un file esistente con la diff fornita.
Valori possibili: update_file

OpenAI.ApproximateLocation

Nome Digitare Descrizione Obbligatorio Predefinito
Città stringa o null No
Paese stringa o null No
Regione stringa o null No
Fuso orario stringa o null No
digitare Enum Tipo di approssimazione della posizione. Sempre approximate.
Valori possibili: approximate

OpenAI.AssistantTool

Discriminare per OpenAI.AssistantTool

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
code_interpreter OpenAI.AssistantToolsCode
file_search OpenAI.AssistantToolsFileSearch
function OpenAI.AssistantToolsFunction
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.AssistantToolType

OpenAI.AssistantToolType

Proprietà Valore
Digitare Stringa
Valori code_interpreter
file_search
function

OpenAI.AssistantToolsCode

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di strumento da definire: code_interpreter
Valori possibili: code_interpreter

OpenAI.AssistantToolsFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
file_search OpenAI.AssistantToolsFileSearchFileSearch No
└max_num_results Intero Vincoli: min: 1, max: 50 No
└ranking_options OpenAI.FileSearchRankingOptions Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.
Per altre informazioni, vedere la documentazione dello strumento di ricerca file .
No
digitare Enum Tipo di strumento da definire: file_search
Valori possibili: file_search

OpenAI.AssistantToolsFileSearchFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
max_num_results Intero Vincoli: min: 1, max: 50 No
ranking_options OpenAI.FileSearchRankingOptions Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.
Per altre informazioni, vedere la documentazione dello strumento di ricerca file .
No

OpenAI.AssistantToolsFileSearchTypeOnly

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di strumento da definire: file_search
Valori possibili: file_search

OpenAI.AssistantToolsFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.FunctionObject
digitare Enum Tipo di strumento da definire: function
Valori possibili: function

OpenAI.AssistantsApiResponseFormatOption

Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.

Tipo: string o OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonObject o OpenAI.ResponseFormatJsonSchema

Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.

OpenAI.AssistantsApiToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà strumenti e genera invece un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente. Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.

Tipo: string o OpenAI.AssistantsNamedToolChoice

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà strumenti e genera invece un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente. Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.

OpenAI.AssistantsNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare uno strumento specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.AssistantsNamedToolChoiceFunction No
digitare Enum Tipo dello strumento. Se type è function, il nome della funzione deve essere impostato
Valori possibili: function, code_interpreter, file_search

OpenAI.AssistantsNamedToolChoiceFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.AudioTranscription

Nome Digitare Descrizione Obbligatorio Predefinito
Lingua Stringa Lingua dell'audio di input. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello Stringa Modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No

OpenAI.AutoChunkingStrategyRequestParam

Strategia predefinita. Questa strategia usa attualmente un max_chunk_size_tokens oggetto di 800 e chunk_overlap_tokens di 400.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Sempre auto.
Valori possibili: auto

OpenAI.Batch

Nome Digitare Descrizione Obbligatorio Predefinito
cancelled_at Intero Timestamp Unix (in secondi) per il momento in cui il batch è stato annullato. No
cancelling_at Intero Timestamp Unix (in secondi) per l'avvio dell'annullamento del batch. No
completed_at Intero Timestamp Unix (in secondi) per il completamento del batch. No
completion_window Stringa Intervallo di tempo entro il quale deve essere elaborato il batch.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il batch.
Endpoint Stringa Endpoint DELL'API OpenAI usato dal batch.
error_file_id Stringa ID del file contenente gli output delle richieste con errori. No
Errori OpenAI.BatchErrors No
expired_at Intero Timestamp Unix (in secondi) per quando il batch è scaduto. No
expires_at Intero Timestamp Unix (in secondi) per la scadenza del batch. No
failed_at Intero Timestamp Unix (in secondi) per quando il batch non è riuscito. No
finalizing_at Intero Timestamp Unix (in secondi) per quando il batch ha iniziato a finalizzare. No
Id Stringa
in_progress_at Intero Timestamp Unix (in secondi) per l'avvio dell'elaborazione del batch. No
input_file_id stringa o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per elaborare il batch, ad esempio gpt-5-2025-08-07. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento al modello
guida
per esplorare e confrontare i modelli disponibili.
No
Oggetto Enum Tipo di oggetto, che è sempre batch.
Valori possibili: batch
output_file_id Stringa ID del file contenente gli output delle richieste eseguite correttamente. No
request_counts OpenAI.BatchRequestCounts La richiesta conta per diversi stati all'interno del batch. No
Stato Enum Stato corrente del batch.
Valori possibili: validating, failed, in_progressfinalizing, completed, expired, , cancellingcancelled
Utilizzo OpenAI.BatchUsage No
└input_tokens Intero
└input_tokens_details OpenAI.BatchUsageInputTokensDetails
└output_tokens Intero
└output_tokens_details OpenAI.BatchUsageOutputTokensDetails
└total_tokens Intero

OpenAI.BatchError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa Codice di errore che identifica il tipo di errore. No
Linea integer o null No
Messaggio Stringa Messaggio leggibile che fornisce altri dettagli sull'errore. No
Param stringa o null No

OpenAI.BatchErrors

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.BatchError No
Oggetto Stringa No

OpenAI.BatchRequestCounts

La richiesta conta per diversi stati all'interno del batch.

Nome Digitare Descrizione Obbligatorio Predefinito
Completato Intero Numero di richieste completate correttamente.
Fallito Intero Numero di richieste non riuscite.
Totale Intero Numero totale di richieste nel batch.

OpenAI.BatchUsage

Nome Digitare Descrizione Obbligatorio Predefinito
input_tokens Intero
input_tokens_details OpenAI.BatchUsageInputTokensDetails
output_tokens Intero
output_tokens_details OpenAI.BatchUsageOutputTokensDetails
total_tokens Intero

OpenAI.BatchUsageInputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero

OpenAI.BatchUsageOutputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_tokens Intero

OpenAI.ChatCompletionAllowedTools

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
Modalità Enum Vincola gli strumenti disponibili al modello a un set predefinito.
auto consente al modello di scegliere tra gli strumenti consentiti e generare un
Messaggio.
required richiede al modello di chiamare uno o più degli strumenti consentiti.
Valori possibili: auto, required
Strumenti matrice di oggetti Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare.
Per l'API Completamento chat, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente:
json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br>

OpenAI.ChatCompletionAllowedToolsChoice

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_tools OpenAI.ChatCompletionAllowedTools Vincola gli strumenti disponibili al modello a un set predefinito.
digitare Enum Tipo di configurazione dello strumento consentito. Sempre allowed_tools.
Valori possibili: allowed_tools

OpenAI.ChatCompletionFunctionCallOption

Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Nome della funzione da chiamare.

OpenAI.ChatCompletionFunctions

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. No
Nome Stringa Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
Parametri OpenAI.FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
No

OpenAI.ChatCompletionMessageCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.ChatCompletionMessageCustomToolCallCustom
Input └* Stringa
└> nome Stringa
Id Stringa ID della chiamata allo strumento.
digitare Enum Tipo dello strumento. Sempre custom.
Valori possibili: custom

OpenAI.ChatCompletionMessageCustomToolCallCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa
Nome Stringa

OpenAI.ChatCompletionMessageToolCall

Chiamata a uno strumento di funzione creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionMessageToolCallFunction
Argomenti └* Stringa
└> nome Stringa
Id Stringa ID della chiamata allo strumento.
digitare Enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function

OpenAI.ChatCompletionMessageToolCallChunk

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionMessageToolCallChunkFunction No
Id Stringa ID della chiamata allo strumento. No
Indice Intero
digitare Enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function
No

OpenAI.ChatCompletionMessageToolCallChunkFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa No
Nome Stringa No

OpenAI.ChatCompletionMessageToolCallFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionMessageToolCalls

Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione.

OpenAI.ChatCompletionMessageToolCallsItem

Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione.

OpenAI.ChatCompletionNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionNamedToolChoiceFunction
digitare Enum Per la chiamata di funzione, il tipo è sempre function.
Valori possibili: function

OpenAI.ChatCompletionNamedToolChoiceCustom

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare uno strumento personalizzato specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.ChatCompletionNamedToolChoiceCustomCustom
digitare Enum Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.
Valori possibili: custom

OpenAI.ChatCompletionNamedToolChoiceCustomCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.ChatCompletionNamedToolChoiceFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.ChatCompletionRequestAssistantMessage

Messaggi inviati dal modello in risposta ai messaggi utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.ChatCompletionRequestAssistantMessageAudio o null Dati relativi a una risposta audio precedente dal modello. No
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestAssistantMessageContentPart o null No
function_call OpenAI.ChatCompletionRequestAssistantMessageFunctionCall o null No
Nome Stringa Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
Rifiuto stringa o null No
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
tool_calls OpenAI.ChatCompletionMessageToolCalls Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. No

OpenAI.ChatCompletionRequestAssistantMessageAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Discriminatorio per OpenAI.ChatCompletionRequestAssistantMessageContentPart

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
text OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChatCompletionRequestAssistantMessageContentPartType

OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText

Informazioni sugli input di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo.
digitare Enum Tipo della parte di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestAssistantMessageContentPartType

Proprietà Valore
Digitare Stringa
Valori text
refusal

OpenAI.ChatCompletionRequestAssistantMessageFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionRequestDeveloperMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, developer i messaggi sostituiscono i messaggi precedenti system .

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Contenuto del messaggio dello sviluppatore.
Nome Stringa Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer

OpenAI.ChatCompletionRequestFunctionMessage

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o null
Nome Stringa Nome della funzione da chiamare.
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function

OpenAI.ChatCompletionRequestMessage

Discriminare per OpenAI.ChatCompletionRequestMessage

Questo componente usa la proprietà role per distinguere tra tipi diversi:

Valore del tipo Schema
assistant OpenAI.ChatCompletionRequestAssistantMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
function OpenAI.ChatCompletionRequestFunctionMessage
system OpenAI.ChatCompletionRequestSystemMessage
user OpenAI.ChatCompletionRequestUserMessage
tool OpenAI.ChatCompletionRequestToolMessage
Nome Digitare Descrizione Obbligatorio Predefinito
Ruolo OpenAI.ChatCompletionRequestMessageType

OpenAI.ChatCompletionRequestMessageContentPartAudio

Nome Digitare Descrizione Obbligatorio Predefinito
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
digitare Enum Tipo della parte di contenuto. Sempre input_audio.
Valori possibili: input_audio

OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
Formato Enum
Valori possibili: wav, mp3

OpenAI.ChatCompletionRequestMessageContentPartFile

Informazioni sugli input di file per la generazione di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
File OpenAI.ChatCompletionRequestMessageContentPartFileFile
└file_data Stringa No
└file_id Stringa No
└> nome file Stringa No
digitare Enum Tipo della parte di contenuto. Sempre file.
Valori possibili: file

OpenAI.ChatCompletionRequestMessageContentPartFileFile

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa No
File_id Stringa No
Filename Stringa No

OpenAI.ChatCompletionRequestMessageContentPartImage

Nome Digitare Descrizione Obbligatorio Predefinito
image_url OpenAI.ChatCompletionRequestMessageContentPartImageUrl
digitare Enum Tipo della parte di contenuto.
Valori possibili: image_url

OpenAI.ChatCompletionRequestMessageContentPartImageUrl

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
Url Stringa

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa Messaggio di rifiuto generato dal modello.
digitare Enum Tipo della parte di contenuto.
Valori possibili: refusal

OpenAI.ChatCompletionRequestMessageContentPartText

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo.
digitare Enum Tipo della parte di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestMessageType

Proprietà Valore
Digitare Stringa
Valori developer
system
user
assistant
tool
function

OpenAI.ChatCompletionRequestSystemMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, usare developer invece i messaggi per questo scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestSystemMessageContentPart Contenuto del messaggio di sistema.
Nome Stringa Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system

OpenAI.ChatCompletionRequestSystemMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestToolMessageContentPart Contenuto del messaggio dello strumento.
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
tool_call_id Stringa Chiamare lo strumento a cui risponde questo messaggio.

OpenAI.ChatCompletionRequestToolMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Messaggi inviati da un utente finale, contenenti richieste o informazioni di contesto aggiuntive.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestUserMessageContentPart Contenuto del messaggio utente.
Nome Stringa Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
Ruolo Enum Ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user

OpenAI.ChatCompletionRequestUserMessageContentPart

Discriminare per OpenAI.ChatCompletionRequestUserMessageContentPart

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
file OpenAI.ChatCompletionRequestMessageContentPartFile
text OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChatCompletionRequestUserMessageContentPartType

OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText

Informazioni sugli input di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo.
digitare Enum Tipo della parte di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestUserMessageContentPartType

Proprietà Valore
Digitare Stringa
Valori text
image_url
input_audio
file

OpenAI.ChatCompletionResponseMessage

Se viene richiesta la modalità di output audio, questo oggetto contiene dati sulla risposta audio del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.ChatCompletionResponseMessageAnnotations Annotazioni per il messaggio, se applicabile, come quando si usa
strumento di ricerca Web.
No
Audio OpenAI.ChatCompletionResponseMessageAudio o null No
Contenuto stringa o null
function_call OpenAI.ChatCompletionResponseMessageFunctionCall No
Argomenti └* Stringa
└> nome Stringa
reasoning_content Stringa Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. No
Rifiuto stringa o null
Ruolo Enum Ruolo dell'autore del messaggio.
Valori possibili: assistant
tool_calls OpenAI.ChatCompletionMessageToolCallsItem Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. No

OpenAI.ChatCompletionResponseMessageAnnotations

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: url_citation
url_citation OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero
start_index Intero
Titolo Stringa
Url Stringa

OpenAI.ChatCompletionResponseMessageAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
expires_at Intero
Id Stringa
Trascrizione Stringa

OpenAI.ChatCompletionResponseMessageFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionStreamOptions

Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.

Nome Digitare Descrizione Obbligatorio Predefinito
include_obfuscation Boolean Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso
caratteri casuali in un obfuscation campo sugli eventi delta di streaming a
normalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale.
Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità
sovraccarico per il flusso di dati. È possibile impostare su include_obfuscation
false per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra
l'applicazione e l'API OpenAI.
No
include_usage Boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]
Messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token
per l'intera richiesta e il choices campo sarà sempre vuoto
Matrice.
Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null
Valore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto
blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta.
No

OpenAI.ChatCompletionStreamResponseDelta

Delta di completamento della chat generato dalle risposte del modello in streaming.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o null No
function_call OpenAI.ChatCompletionStreamResponseDeltaFunctionCall No
Argomenti └* Stringa No
└> nome Stringa No
reasoning_content Stringa Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. No
Rifiuto stringa o null No
Ruolo Enum Ruolo dell'autore del messaggio.
Valori possibili: developer, systemuser, , assistant,tool
No
tool_calls matrice di OpenAI.ChatCompletionMessageToolCallChunk No

OpenAI.ChatCompletionStreamResponseDeltaFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa No
Nome Stringa No

OpenAI.ChatCompletionTokenLogprob

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi o null
logprob Numero Probabilità di log di questo token, se si trova all'interno dei primi 20 token più probabili. In caso contrario, il valore -9999.0 viene usato per indicare che il token è molto improbabile.
Token Stringa Token.
top_logprobs matrice di OpenAI.ChatCompletionTokenLogprobTopLogprobs Elenco dei token più probabili e della probabilità di log, in questa posizione del token. In rari casi, può essere presente un numero inferiore al numero di richieste restituite top_logprobs .

OpenAI.ChatCompletionTokenLogprobTopLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi o null
logprob Numero
Token Stringa

OpenAI.ChatCompletionTool

Strumento di funzione che può essere usato per generare una risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.FunctionObject
digitare Enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function

OpenAI.ChatCompletionToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti.

Tipo: string o OpenAI.ChatCompletionAllowedToolsChoice o OpenAI.ChatCompletionNamedToolChoice o OpenAI.ChatCompletionNamedToolChoiceCustom

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti.

OpenAI.ChunkingStrategyRequestParam

Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto.

Discriminante per OpenAI.ChunkingStrategyRequestParam

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
auto OpenAI.AutoChunkingStrategyRequestParam
static OpenAI.StaticChunkingStrategyRequestParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChunkingStrategyRequestParamType

OpenAI.ChunkingStrategyRequestParamType

Proprietà Valore
Digitare Stringa
Valori auto
static

OpenAI.ChunkingStrategyResponse

Strategia usata per suddividere il file.

Discriminante per OpenAI.ChunkingStrategyResponse

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
static OpenAI.StaticChunkingStrategyResponseParam
other OpenAI.OtherChunkingStrategyResponseParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChunkingStrategyResponseType

OpenAI.ChunkingStrategyResponseType

Proprietà Valore
Digitare Stringa
Valori static
other

OpenAI.ClickButtonType

Proprietà Valore
Digitare Stringa
Valori left
right
wheel
back
forward

OpenAI.ClickParam

Azione di clic.

Nome Digitare Descrizione Obbligatorio Predefinito
Pulsante OpenAI.ClickButtonType
digitare Enum Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre click.
Valori possibili: click
X Intero Coordinata x in cui si è verificato il clic.
Y Intero Coordinata y in cui si è verificato il clic.

OpenAI.CodeInterpreterContainerAuto

Configurazione per un contenitore dell'interprete di codice. Facoltativamente, specificare gli ID dei file in cui eseguire il codice.

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe Elenco facoltativo di file caricati da rendere disponibile per il codice. No
memory_limit OpenAI.ContainerMemoryLimit o null No
digitare Enum Sempre auto.
Valori possibili: auto

OpenAI.CodeInterpreterOutputImage

Output dell'immagine dell'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dell'output. Sempre image.
Valori possibili: image
Url Stringa URL dell'output dell'immagine dall'interprete di codice.

OpenAI.CodeInterpreterOutputLogs

Output dei log dall'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Registri Stringa Output dei log dall'interprete di codice.
digitare Enum Tipo dell'output. Sempre logs.
Valori possibili: logs

OpenAI.CodeInterpreterTool

Strumento che esegue codice Python per generare una risposta a un prompt.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenitore string o OpenAI.CodeInterpreterContainerAuto Contenitore dell'interprete di codice. Può essere un ID contenitore o un oggetto che
specifica gli ID file caricati per rendere disponibile il codice, insieme a un
impostazione facoltativa memory_limit .
digitare Enum Tipo dello strumento dell'interprete di codice. Sempre code_interpreter.
Valori possibili: code_interpreter

OpenAI.ComparisonFilter

Filtro utilizzato per confrontare una chiave di attributo specificata con un determinato valore usando un'operazione di confronto definita.

Nome Digitare Descrizione Obbligatorio Predefinito
Chiave Stringa Chiave da confrontare con il valore.
digitare Enum Specifica l'operatore di confronto: eq, negt, gte, , ltlte, innin.
- eq:Uguale
- ne: diverso da
- gt:Maggiore
- gte: maggiore o uguale a
- lt:Meno
- lte: minore o uguale a
- in:Pollici
- nin: non in
Valori possibili: eq, negt, gte, , ltlte
Valore stringa o numero o matrice booleana o di OpenAI.ComparisonFilterValueItems Valore da confrontare con la chiave dell'attributo; supporta tipi stringa, number o booleani.

OpenAI.ComparisonFilterValueItems

Questo schema accetta uno dei tipi seguenti:

  • Stringa
  • Numero

OpenAI.CompletionUsage

Statistiche di utilizzo per la richiesta di completamento.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di token nel completamento generato.
completion_tokens_details OpenAI.CompletionUsageCompletionTokensDetails No
└accepted_prediction_tokens Intero No
└audio_tokens Intero No
└reasoning_tokens Intero No
└rejected_prediction_tokens Intero No
prompt_tokens Intero Numero di token nel prompt.
prompt_tokens_details OpenAI.CompletionUsagePromptTokensDetails No
└audio_tokens Intero No
└cached_tokens Intero No
total_tokens Intero Numero totale di token usati nella richiesta (richiesta + completamento).

OpenAI.CompletionUsageCompletionTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
accepted_prediction_tokens Intero No
audio_tokens Intero No
reasoning_tokens Intero No
rejected_prediction_tokens Intero No

OpenAI.CompletionUsagePromptTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
audio_tokens Intero No
cached_tokens Intero No

OpenAI.CompoundFilter

Combinare più filtri usando and o or.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri matrice di oggetto o OpenAI.ComparisonFilter Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter.
digitare Enum Tipo di operazione: and o or.
Valori possibili: and, or

OpenAI.ComputerAction

Discriminare per OpenAI.ComputerAction

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
click OpenAI.ClickParam
double_click OpenAI.DoubleClickAction
drag OpenAI.Drag
keypress OpenAI.KeyPressAction
move OpenAI.Move
screenshot OpenAI.Screenshot
scroll OpenAI.Scroll
type OpenAI.Type
wait OpenAI.Wait
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ComputerActionType

OpenAI.ComputerActionType

Proprietà Valore
Digitare Stringa
Valori click
double_click
drag
keypress
move
screenshot
scroll
type
wait

OpenAI.ComputerCallSafetyCheckParam

Controllo di sicurezza in sospeso per la chiamata al computer.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null No
Id Stringa ID del controllo di sicurezza in sospeso.
Messaggio stringa o null No

OpenAI.ComputerEnvironment

Proprietà Valore
Digitare Stringa
Valori windows
mac
linux
ubuntu
browser

OpenAI.ComputerScreenshotContent

Screenshot di un computer.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id stringa o null
image_url stringa o null
digitare Enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.
Valori possibili: computer_screenshot

OpenAI.ComputerScreenshotImage

Immagine di screenshot del computer usata con lo strumento per l'uso del computer.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa Identificatore di un file caricato che contiene lo screenshot. No
image_url Stringa URL dell'immagine di screenshot. No
digitare Enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è
sempre impostato su computer_screenshot.
Valori possibili: computer_screenshot

OpenAI.ComputerUsePreviewTool

Strumento che controlla un computer virtuale.

Nome Digitare Descrizione Obbligatorio Predefinito
display_height Intero Altezza dello schermo del computer.
display_width Intero Larghezza della visualizzazione del computer.
Ambiente OpenAI.ComputerEnvironment
digitare Enum Tipo dello strumento di utilizzo del computer. Sempre computer_use_preview.
Valori possibili: computer_use_preview

OpenAI.ContainerFileCitationBody

Citazione per un file di contenitore usato per generare una risposta del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
container_id Stringa ID del file contenitore.
end_index Intero Indice dell'ultimo carattere della citazione del file contenitore nel messaggio.
File_id Stringa ID del file.
Filename Stringa Nome file del file contenitore citato.
start_index Intero Indice del primo carattere della citazione del file contenitore nel messaggio.
digitare Enum Tipo di citazione del file contenitore. Sempre container_file_citation.
Valori possibili: container_file_citation

OpenAI.ContainerFileListResource

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ContainerFileResource Elenco di file del contenitore.
first_id Stringa ID del primo file nell'elenco.
has_more Boolean Indica se sono disponibili altri file.
last_id Stringa ID dell'ultimo file nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere 'list'.
Valori possibili: list

OpenAI.ContainerFileResource

Nome Digitare Descrizione Obbligatorio Predefinito
Byte Intero Dimensioni del file in byte.
container_id Stringa Il contenitore a cui appartiene questo file.
created_at Intero Timestamp Unix (in secondi) al momento della creazione del file.
Id Stringa Identificatore univoco per il file.
Oggetto Enum Tipo di questo oggetto (container.file).
Valori possibili: container.file
Percorso Stringa Percorso del file nel contenitore.
fonte Stringa Origine del file ( ad esempio , user). assistant

OpenAI.ContainerListResource

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ContainerResource Elenco di contenitori.
first_id Stringa ID del primo contenitore nell'elenco.
has_more Boolean Indica se sono disponibili altri contenitori.
last_id Stringa ID dell'ultimo contenitore nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere 'list'.
Valori possibili: list

OpenAI.ContainerMemoryLimit

Proprietà Valore
Digitare Stringa
Valori 1g
4g
16g
64g

OpenAI.ContainerResource

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) al momento della creazione del contenitore.
expires_after OpenAI.ContainerResourceExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
No
└* minuti Intero No
Id Stringa Identificatore univoco per il contenitore.
last_active_at Intero Timestamp Unix (in secondi) quando il contenitore è stato attivo per l'ultima volta. No
memory_limit Enum Limite di memoria configurato per il contenitore.
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore.
Oggetto Stringa Tipo di questo oggetto.
Stato Stringa Stato del contenitore(ad esempio, attivo, eliminato).

OpenAI.ContainerResourceExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: last_active_at
No
Minuti Intero No

OpenAI.ConversationItem

Un singolo elemento all'interno di una conversazione. Il set di tipi possibili è uguale al output tipo di un oggetto Response.

Discriminare per OpenAI.ConversationItem

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
message OpenAI.ConversationItemMessage
function_call OpenAI.ConversationItemFunctionToolCallResource
function_call_output OpenAI.ConversationItemFunctionToolCallOutputResource
file_search_call OpenAI.ConversationItemFileSearchToolCall
web_search_call OpenAI.ConversationItemWebSearchToolCall
image_generation_call OpenAI.ConversationItemImageGenToolCall
computer_call OpenAI.ConversationItemComputerToolCall
computer_call_output OpenAI.ConversationItemComputerToolCallOutputResource
reasoning OpenAI.ConversationItemReasoningItem
code_interpreter_call OpenAI.ConversationItemCodeInterpreterToolCall
local_shell_call OpenAI.ConversationItemLocalShellToolCall
local_shell_call_output OpenAI.ConversationItemLocalShellToolCallOutput
shell_call OpenAI.ConversationItemFunctionShellCall
shell_call_output OpenAI.ConversationItemFunctionShellCallOutput
apply_patch_call OpenAI.ConversationItemApplyPatchToolCall
apply_patch_call_output OpenAI.ConversationItemApplyPatchToolCallOutput
mcp_list_tools OpenAI.ConversationItemMcpListTools
mcp_approval_request OpenAI.ConversationItemMcpApprovalRequest
mcp_approval_response OpenAI.ConversationItemMcpApprovalResponseResource
mcp_call OpenAI.ConversationItemMcpToolCall
custom_tool_call OpenAI.ConversationItemCustomToolCall
custom_tool_call_output OpenAI.ConversationItemCustomToolCallOutput
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ConversationItemType

OpenAI.ConversationItemApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolato quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.ConversationItemApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolato quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.ConversationItemCodeInterpreterToolCall

Chiamata dello strumento per eseguire il codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa ID univoco della chiamata dello strumento dell'interprete del codice.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Stato della chiamata dello strumento dell'interprete del codice. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completedincomplete, , interpreting,failed
digitare Enum Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.ConversationItemComputerToolCall

Una chiamata di strumento a uno strumento per l'uso di un computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Identificatore usato per rispondere alla chiamata dello strumento con output.
Id Stringa ID univoco della chiamata al computer.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam Controlli di sicurezza in sospeso per la chiamata al computer.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.ConversationItemComputerToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
acknowledged_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
Sviluppatore.
No
call_id Stringa ID della chiamata dello strumento del computer che ha prodotto l'output.
Id Stringa ID dell'output delle chiamate dello strumento computer. No
Output OpenAI.ComputerScreenshotImage Immagine di screenshot del computer usata con lo strumento per l'uso del computer.
Stato Enum Stato dell'input del messaggio. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.
Valori possibili: computer_call_output

OpenAI.ConversationItemCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento.
Id Stringa ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. No
Input Stringa Input per la chiamata personalizzata dello strumento generata dal modello.
Nome Stringa Nome dello strumento personalizzato chiamato.
digitare Enum Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.
Valori possibili: custom_tool_call

OpenAI.ConversationItemCustomToolCallOutput

L'output di una chiamata personalizzata dello strumento dal codice, che viene inviato al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID chiamata, usato per eseguire il mapping dell'output della chiamata di questo strumento personalizzato a una chiamata di strumento personalizzata.
Id Stringa ID univoco dell'output delle chiamate dello strumento personalizzato nella piattaforma OpenAI. No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata dello strumento personalizzato generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
digitare Enum Tipo dell'output delle chiamate dello strumento personalizzato. Sempre custom_tool_call_output.
Valori possibili: custom_tool_call_output

OpenAI.ConversationItemFileSearchToolCall

Risultati di una chiamata allo strumento di ricerca file. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata allo strumento di ricerca file.
Query matrice di stringhe Query usate per cercare i file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searchingcompleted, , incomplete,failed
digitare Enum Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.ConversationItemFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolato quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.ConversationItemFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolato quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.ConversationItemFunctionToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento di funzione generata dal modello.
Id Stringa ID univoco dell'output delle chiamate dello strumento di funzione. Popolato quando questo elemento
viene restituito tramite l'API.
No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata di funzione generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.
Valori possibili: function_call_output

OpenAI.ConversationItemFunctionToolCallResource

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON degli argomenti da passare alla funzione.
call_id Stringa ID univoco della chiamata dello strumento di funzione generata dal modello.
Id Stringa ID univoco della chiamata dello strumento di funzione. No
Nome Stringa Nome della funzione da eseguire.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di chiamata dello strumento di funzione. Sempre function_call.
Valori possibili: function_call

OpenAI.ConversationItemImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.ConversationItemList

Elenco di elementi di conversazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ConversationItem Elenco di elementi della conversazione.
first_id Stringa ID del primo elemento dell'elenco.
has_more Boolean Indica se sono disponibili altri elementi.
last_id Stringa ID dell'ultimo elemento nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

OpenAI.ConversationItemLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.ConversationItemLocalShellToolCallOutput

Output di una chiamata allo strumento shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Output Stringa Stringa JSON dell'output della chiamata allo strumento shell locale.
Stato stringa o null No
digitare Enum Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.
Valori possibili: local_shell_call_output

OpenAI.ConversationItemMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.ConversationItemMcpApprovalResponseResource

Risposta a una richiesta di approvazione MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id Stringa ID della richiesta di approvazione a cui viene inviata la risposta.
Approvare Boolean Indica se la richiesta è stata approvata.
Id Stringa ID univoco della risposta di approvazione
Motivo stringa o null No
digitare Enum Tipo dell'elemento. Sempre mcp_approval_response.
Valori possibili: mcp_approval_response

OpenAI.ConversationItemMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.ConversationItemMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.ConversationItemMessage

Messaggio da o verso il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.InputTextContent o OpenAI.OutputTextContent o OpenAI.TextContent o OpenAI.SummaryTextContent o OpenAI.ReasoningTextContent o OpenAI.RefusalContent o OpenAI.InputImageContent o OpenAI.ComputerScreenshotContent o OpenAI.InputFileContent Contenuto del messaggio
Id Stringa ID univoco del messaggio.
Ruolo OpenAI.MessageRole
Stato OpenAI.MessageStatus
digitare Enum Tipo del messaggio. Impostare sempre su message.
Valori possibili: message

OpenAI.ConversationItemReasoningItem

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ReasoningTextContent Ragionamento del contenuto del testo. No
encrypted_content stringa o null No
Id Stringa Identificatore univoco del contenuto di ragionamento.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
Riepilogo matrice di OpenAI.Summary Ragionamento del contenuto di riepilogo.
digitare Enum Tipo dell'oggetto. Sempre reasoning.
Valori possibili: reasoning

OpenAI.ConversationItemType

Proprietà Valore
Digitare Stringa
Valori message
function_call
function_call_output
file_search_call
web_search_call
image_generation_call
computer_call
computer_call_output
reasoning
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call
custom_tool_call
custom_tool_call_output

OpenAI.ConversationItemWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.ConversationParam

Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta. Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.

Tipo: string o OpenAI.ConversationParam-2

Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta. Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.

OpenAI.ConversationParam-2

Conversazione a cui appartiene questa risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della conversazione.

OpenAI.ConversationReference

Conversazione a cui appartiene questa risposta. Gli elementi di input e gli elementi di output di questa risposta sono stati aggiunti automaticamente a questa conversazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della conversazione a cui è stata associata la risposta.

OpenAI.ConversationResource

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Ora in cui è stata creata la conversazione, misurata in secondi dall'epoca Unix.
Id Stringa ID univoco della conversazione.
Metadati Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.
Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Oggetto Enum Tipo di oggetto, che è sempre conversation.
Valori possibili: conversation

OpenAI.CreateChatCompletionRequestAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Formato Enum
Valori possibili: wav, aacmp3, flac, , opuspcm16
Voce OpenAI.VoiceIdsShared

OpenAI.CreateChatCompletionRequestResponseFormat

Oggetto che specifica il formato che il modello deve restituire. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati. L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.

Discriminare per OpenAI.CreateChatCompletionRequestResponseFormat

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
json_schema OpenAI.ResponseFormatJsonSchema
text OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
json_object OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.CreateChatCompletionRequestResponseFormatType

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre json_object.
Valori possibili: json_object

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre text.
Valori possibili: text

OpenAI.CreateChatCompletionRequestResponseFormatType

Proprietà Valore
Digitare Stringa
Valori text
json_schema
json_object

OpenAI.CreateChatCompletionResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results AzureContentFilterResultForChoice Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. No
finish_reason Enum
Valori possibili: stop, lengthtool_calls, , content_filter,function_call
Indice Intero
logprobs OpenAI.CreateChatCompletionResponseChoicesLogprobs o null
Messaggio OpenAI.ChatCompletionResponseMessage Se viene richiesta la modalità di output audio, questo oggetto contiene dati
sulla risposta audio del modello.

OpenAI.CreateChatCompletionResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ChatCompletionTokenLogprob o null
Rifiuto matrice di OpenAI.ChatCompletionTokenLogprob o null

OpenAI.CreateChatCompletionStreamResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
Delta OpenAI.ChatCompletionStreamResponseDelta Delta di completamento della chat generato dalle risposte del modello in streaming.
finish_reason stringa o null
Indice Intero
logprobs OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs o null No

OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ChatCompletionTokenLogprob o null
Rifiuto matrice di OpenAI.ChatCompletionTokenLogprob o null

OpenAI.CreateCompletionResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results AzureContentFilterResultForChoice Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. No
finish_reason Enum
Valori possibili: stop, length, content_filter
Indice Intero
logprobs OpenAI.CreateCompletionResponseChoicesLogprobs o null
Testo Stringa

OpenAI.CreateCompletionResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
text_offset matrice di numeri interi No
token_logprobs matrice di numeri No
Token matrice di stringhe No
top_logprobs matrice di oggetti No

OpenAI.CreateContainerBody

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.CreateContainerBodyExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
└* minuti Intero
file_ids matrice di stringhe ID di file da copiare nel contenitore. No
memory_limit Enum Limite di memoria facoltativo per il contenitore. Il valore predefinito è "1g".
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore da creare.

OpenAI.CreateContainerBodyExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: last_active_at
Minuti Intero

OpenAI.CreateContainerFileBody

Nome Digitare Descrizione Obbligatorio Predefinito
File Oggetto File (non nome file) da caricare. No
File_id Stringa Nome del file da creare. No

OpenAI.CreateConversationBody

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem o null No
Metadati OpenAI.Metadata o Null No

OpenAI.CreateConversationItemsParametersBody

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem

OpenAI.CreateEmbeddingRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Dimensioni Intero Numero di dimensioni che devono essere presenti gli incorporamenti di output risultanti. Supportato solo nei text-embedding-3 modelli e versioni successive.
Vincoli: min: 1
No
encoding_format Enum Formato in cui restituire gli incorporamenti. Può essere float o base64.
Valori possibili: float, base64
No
Input stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice Testo di input da incorporare, codificato come stringa o matrice di token. Per incorporare più input in una singola richiesta, passare una matrice di stringhe o una matrice di matrici di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta.
Modello Stringa ID del modello da usare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
Utente Stringa Altre informazioni. No

OpenAI.CreateEmbeddingResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Embedding Elenco di incorporamenti generati dal modello.
Modello Stringa Nome del modello utilizzato per generare l'incorporamento.
Oggetto Enum Tipo di oggetto, che è sempre "list".
Valori possibili: list
Utilizzo OpenAI.CreateEmbeddingResponseUsage
└prompt_tokens Intero
└total_tokens Intero

OpenAI.CreateEmbeddingResponseUsage

Nome Digitare Descrizione Obbligatorio Predefinito
prompt_tokens Intero
total_tokens Intero

OpenAI.CreateEvalCompletionsRunDataSource

Oggetto CompletionsRunDataSource che descrive una configurazione di campionamento del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_messages OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. No
Modello Stringa Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). No
sampling_params AzureCompletionsSamplingParams Parametri di campionamento per controllare il comportamento dei completamenti. No
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalStoredCompletionsSource Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione.
digitare Enum Tipo di origine dati di esecuzione. Sempre completions.
Valori possibili: completions

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference

Nome Digitare Descrizione Obbligatorio Predefinito
item_reference Stringa
digitare Enum
Valori possibili: item_reference

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate

Nome Digitare Descrizione Obbligatorio Predefinito
Modello matrice di OpenAI.EasyInputMessage o OpenAI.EvalItem
digitare Enum
Valori possibili: template

OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
max_completion_tokens Intero No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più elevata aumenta la casualità negli output. No 1
Strumenti matrice di OpenAI.ChatCompletionTool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; 1.0 include tutti i token. No 1

OpenAI.CreateEvalCustomDataSourceConfig

Oggetto CustomDataSourceConfig che definisce lo schema per l'origine dati utilizzata per le esecuzioni di valutazione. Questo schema viene usato per definire la forma dei dati che saranno:

  • Usato per definire i criteri di test e
  • Quali dati sono necessari durante la creazione di un'esecuzione
Nome Digitare Descrizione Obbligatorio Predefinito
include_sample_schema Boolean Indica se l'eval deve aspettarsi di popolare lo spazio dei nomi di esempio (ad esempio, generando risposte all'esterno dell'origine dati) No
item_schema Oggetto Schema JSON per ogni riga nell'origine dati.
digitare Enum Tipo di origine dati. Sempre custom.
Valori possibili: custom

OpenAI.CreateEvalItem

Messaggio di chat che costituisce il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa Contenuto del messaggio.
Ruolo Stringa Ruolo del messaggio ,ad esempio "system", "assistant", "user".

OpenAI.CreateEvalJsonlRunDataSource

Oggetto JsonlRunDataSource con che specifica un file JSONL che corrisponde all'eval

Nome Digitare Descrizione Obbligatorio Predefinito
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource Determina il popolamento dello item spazio dei nomi nell'origine dati.
digitare Enum Tipo di origine dati. Sempre jsonl.
Valori possibili: jsonl

OpenAI.CreateEvalLabelModelGrader

Oggetto LabelModelGrader che usa un modello per assegnare etichette a ogni elemento della valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.CreateEvalItem Elenco di messaggi di chat che formano il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}.
Etichette matrice di stringhe Etichette da classificare in ogni elemento della valutazione.
Modello Stringa Modello da utilizzare per la valutazione. Deve supportare output strutturati.
Nome Stringa Nome del grader.
passing_labels matrice di stringhe Etichette che indicano un risultato di passaggio. Deve essere un subset di etichette.
digitare Enum Tipo di oggetto, che è sempre label_model.
Valori possibili: label_model

OpenAI.CreateEvalLogsDataSourceConfig

Configurazione dell'origine dati che specifica la proprietà dei metadati della query di log. Si tratta in genere di metadati come usecase=chatbot o prompt-version=v2e così via.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati Oggetto Filtri dei metadati per l'origine dati dei log. No
digitare Enum Tipo di origine dati. Sempre logs.
Valori possibili: logs

OpenAI.CreateEvalResponsesRunDataSource

Oggetto ResponsesRunDataSource che descrive una configurazione di campionamento del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_messages OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. No
Modello Stringa Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). No
sampling_params AzureResponsesSamplingParams Parametri di campionamento per controllare il comportamento delle risposte. No
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalResponsesSource Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione.
digitare Enum Tipo di origine dati di esecuzione. Sempre responses.
Valori possibili: responses

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference

Nome Digitare Descrizione Obbligatorio Predefinito
item_reference Stringa
digitare Enum
Valori possibili: item_reference

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate

Nome Digitare Descrizione Obbligatorio Predefinito
Modello matrice di oggetti o OpenAI.EvalItem
digitare Enum
Valori possibili: template

OpenAI.CreateEvalResponsesRunDataSourceSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più elevata aumenta la casualità negli output. No 1
Testo OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText No
Strumenti matrice di OpenAI.Tool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; 1.0 include tutti i token. No 1

OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.
La configurazione { "type": "json_schema" } abilita output strutturati,
che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito non include { "type": "text" } opzioni aggiuntive.
*Non consigliato per i modelli gpt-4o e versioni successive:**
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No

OpenAI.CreateEvalRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Dettagli sull'origine dati dell'esecuzione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Nome dell'esecuzione. No

OpenAI.CreateEvalStoredCompletionsDataSourceConfig

Deprecato a favore di LogsDataSourceConfig.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati Oggetto Filtri di metadati per l'origine dati di completamento archiviati. No
digitare Enum Tipo di origine dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.CreateFileRequest

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after Oggetto
Ancoraggio └* AzureFileExpiryAnchor
└> secondi Intero
File Oggetto File (non nome file) da caricare.
Scopo Enum Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati eval
Valori possibili: assistants, batch, fine-tune, evals

OpenAI.CreateFineTuningCheckpointPermissionRequest

Nome Digitare Descrizione Obbligatorio Predefinito
project_ids matrice di stringhe Identificatori del progetto a cui concedere l'accesso.

OpenAI.CreateFineTuningJobRequest

Modelli validi:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.CreateFineTuningJobRequestHyperparameters No
└batch_size stringa o integer No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Integrazioni matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null Elenco di integrazioni da abilitare per il processo di ottimizzazione. No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare una delle
modelli supportati.
Seme integer o null Il valore di inizializzazione controlla la riproducibilità del processo. Il passaggio degli stessi parametri di inizializzazione e processo dovrebbe produrre gli stessi risultati, ma può differire in rari casi.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
No
Suffisso stringa o null Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.
Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No
training_file Stringa ID di un file caricato che contiene i dati di training.
Per informazioni su come caricare un file, vedere Caricare un file.
Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.
Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza .
Per altri dettagli, vedere la guida all'ottimizzazione .
validation_file stringa o null ID di un file caricato che contiene i dati di convalida.
Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in
file dei risultati di ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida.
Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.
Per altri dettagli, vedere la guida all'ottimizzazione .
No

OpenAI.CreateFineTuningJobRequestHyperparameters

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer No
learning_rate_multiplier stringa o numero No
n_epochs stringa o integer No

OpenAI.CreateFineTuningJobRequestIntegrations

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: wandb
wandb OpenAI.CreateFineTuningJobRequestIntegrationsWandb

OpenAI.CreateFineTuningJobRequestIntegrationsWandb

Nome Digitare Descrizione Obbligatorio Predefinito
Entità stringa o null No
Nome stringa o null No
Progetto Stringa
Tag matrice di stringhe No

OpenAI.CreateMessageRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Allegati matrice di OpenAI.CreateMessageRequestAttachments o null No
Contenuto stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject
Metadati OpenAI.Metadata o Null No
Ruolo Enum Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.
Valori possibili: user, assistant

OpenAI.CreateMessageRequestAttachments

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
Strumenti matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly No

OpenAI.CreateResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
Conversazione OpenAI.ConversationParam o null No
Includono matrice di OpenAI.IncludeEnum o null No
Input OpenAI.InputParam Input di testo, immagine o file nel modello, usato per generare una risposta.
Ulteriori informazioni:
- Input di testo e output
- Input dell'immagine
- Input di file
- Stato conversazione
- Chiamata di funzione
No
Istruzioni stringa o null No
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
parallel_tool_calls booleano o null No
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Negozio booleano o null No
Flusso booleano o null No
stream_options OpenAI.ResponseStreamOptions o null No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

OpenAI.CreateRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
additional_instructions stringa o null Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. No
additional_messages matrice di OpenAI.CreateMessageRequest o null Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. No
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Esegue l'override delle istruzioni dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer o null Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
max_prompt_tokens integer o null Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
Strumenti matrice di OpenAI.AssistantTool Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number o null Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

OpenAI.CreateThreadAndRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer o null Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
max_prompt_tokens integer o null Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. No
Thread OpenAI.CreateThreadRequest Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un
request, verrà creato un thread vuoto.
No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tool_resources OpenAI.CreateThreadAndRunRequestToolResources o null Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. No
Strumenti matrice di OpenAI.AssistantTool Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number o null Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

OpenAI.CreateThreadAndRunRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter No
file_search OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch No

OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No []

OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.CreateThreadRequest

Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di una richiesta, verrà creato un thread vuoto.

Nome Digitare Descrizione Obbligatorio Predefinito
Messaggi matrice di OpenAI.CreateMessageRequest Elenco di messaggi con cui avviare il thread. No
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.CreateThreadRequestToolResources o null No

OpenAI.CreateThreadRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.CreateThreadRequestToolResourcesCodeInterpreter No
file_search oggetto o oggetto No

OpenAI.CreateThreadRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.CreateVectorStoreFileBatchRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. No
File matrice di OpenAI.CreateVectorStoreFileRequest Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. No

OpenAI.CreateVectorStoreFileRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
File_id Stringa ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file.

OpenAI.CreateVectorStoreRequest

Nome Digitare Descrizione Obbligatorio Predefinito
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
Descrizione Stringa Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. No
expires_after OpenAI.VectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. No
Metadati OpenAI.Metadata o Null No
Nome Stringa Nome dell'archivio vettoriale. No

OpenAI.CustomGrammarFormatParam

Grammatica definita dall'utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Definizione Stringa Definizione della grammatica.
Sintassi OpenAI.GrammarSyntax1
digitare Enum Formato grammaticale. Sempre grammar.
Valori possibili: grammar

OpenAI.CustomTextFormatParam

Testo in formato libero senza vincoli.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Formato di testo non vincolato. Sempre text.
Valori possibili: text

OpenAI.CustomToolChatCompletions

Strumento personalizzato che elabora l'input usando un formato specificato.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.CustomToolChatCompletionsCustom
└* descrizione Stringa No
└* formato OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar No
└> nome Stringa
digitare Enum Tipo dello strumento personalizzato. Sempre custom.
Valori possibili: custom

OpenAI.CustomToolChatCompletionsCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Formato OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar No
Nome Stringa

OpenAI.CustomToolChatCompletionsCustomFormatGrammar

Nome Digitare Descrizione Obbligatorio Predefinito
Grammatica OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar
Definizione └* Stringa
Sintassi └++ Enum
Valori possibili: lark, regex
digitare Enum
Valori possibili: grammar

OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar

Nome Digitare Descrizione Obbligatorio Predefinito
Definizione Stringa
Sintassi Enum
Valori possibili: lark, regex

OpenAI.CustomToolChatCompletionsCustomFormatText

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: text

OpenAI.CustomToolParam

Strumento personalizzato che elabora l'input usando un formato specificato. Altre informazioni sugli strumenti personalizzati

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione facoltativa dello strumento personalizzato, usata per fornire più contesto. No
Formato OpenAI.CustomToolParamFormat Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato. No
Tipo └* OpenAI.CustomToolParamFormatType
Nome Stringa Nome dello strumento personalizzato, usato per identificarlo nelle chiamate degli strumenti.
digitare Enum Tipo dello strumento personalizzato. Sempre custom.
Valori possibili: custom

OpenAI.CustomToolParamFormat

Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato.

Discriminare per OpenAI.CustomToolParamFormat

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
text OpenAI.CustomTextFormatParam
grammar OpenAI.CustomGrammarFormatParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.CustomToolParamFormatType

OpenAI.CustomToolParamFormatType

Proprietà Valore
Digitare Stringa
Valori text
grammar

OpenAI.DeleteFileResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: file

OpenAI.DeleteFineTuningCheckpointPermissionResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean Indica se l'autorizzazione del checkpoint del modello ottimizzata è stata eliminata correttamente.
Id Stringa ID dell'autorizzazione del checkpoint del modello ottimizzata eliminata.
Oggetto Enum Tipo di oggetto, che è sempre "checkpoint.permission".
Valori possibili: checkpoint.permission

OpenAI.DeleteMessageResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: thread.message.deleted

OpenAI.DeleteModelResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Stringa

OpenAI.DeleteThreadResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: thread.deleted

OpenAI.DeleteVectorStoreFileResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: vector_store.file.deleted

OpenAI.DeleteVectorStoreResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: vector_store.deleted

OpenAI.DeletedConversationResource

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: conversation.deleted

OpenAI.DoubleClickAction

Azione di doppio clic.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.
Valori possibili: double_click
X Intero Coordinata x in cui si è verificato il doppio clic.
Y Intero Coordinata y in cui si è verificato il doppio clic.

OpenAI.Drag

Azione di trascinamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Percorso matrice di OpenAI.DragPoint Matrice di coordinate che rappresentano il percorso dell'azione di trascinamento. Le coordinate verranno visualizzate come matrice
di oggetti, ad esempio
<br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br>
digitare Enum Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è
sempre impostato su drag.
Valori possibili: drag

OpenAI.DragPoint

Coppia di coordinate x/y, ad esempio { x: 100, y: 200 }.

Nome Digitare Descrizione Obbligatorio Predefinito
X Intero Coordinata x.
Y Intero Coordinata y.

OpenAI.EasyInputMessage

Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo . Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto string o OpenAI.InputMessageContentList Input di testo, immagine o audio per il modello, usato per generare una risposta.
Può anche contenere risposte di assistente precedenti.
Ruolo Enum Ruolo dell'input del messaggio. Uno di user, assistant, systemo
developer.
Valori possibili: user, assistant, system, developer
digitare Enum Tipo di input del messaggio. Sempre message.
Valori possibili: message

OpenAI.Embedding

Rappresenta un vettore di incorporamento restituito dall'endpoint di incorporamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Incorporamento matrice di numeri Vettore di incorporamento, che è un elenco di float. La lunghezza del vettore dipende dal modello elencato nella guida all'incorporamento.
Indice Intero Indice dell'incorporamento nell'elenco di incorporamenti.
Oggetto Enum Tipo di oggetto, che è sempre "incorporamento".
Valori possibili: embedding

OpenAI.Eval

Oggetto Eval con criteri di configurazione e test dell'origine dati. Un Eval rappresenta un'attività da eseguire per l'integrazione LLM. Come:

  • Migliorare la qualità del chatbot
  • Scopri in che modo il mio chatbot gestisce il supporto clienti
  • Controllare se o4-mini è meglio nel mio caso d'uso rispetto a gpt-4o
Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per la creazione dell'eval.
data_source_config OpenAI.EvalCustomDataSourceConfig o OpenAI.EvalLogsDataSourceConfig o OpenAI.EvalStoredCompletionsDataSourceConfig Configurazione delle origini dati usate nelle esecuzioni della valutazione.
Id Stringa Identificatore univoco per la valutazione.
Metadati OpenAI.Metadata o Null
Nome Stringa Nome della valutazione.
Oggetto Enum Tipo di oggetto.
Valori possibili: eval
testing_criteria matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint Elenco dei criteri di test.

OpenAI.EvalApiError

Oggetto che rappresenta una risposta di errore dall'API Eval.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa Codice di errore.
Messaggio Stringa Messaggio di errore.

OpenAI.EvalCustomDataSourceConfig

CustomDataSourceConfig che specifica lo schema degli item spazi dei nomi e facoltativamente sample . Lo schema di risposta definisce la forma dei dati che saranno:

  • Usato per definire i criteri di test e
  • Quali dati sono necessari durante la creazione di un'esecuzione
Nome Digitare Descrizione Obbligatorio Predefinito
Schema Oggetto Schema json per gli elementi dell'origine dati di esecuzione.
Informazioni su come creare schemi JSON qui.
digitare Enum Tipo di origine dati. Sempre custom.
Valori possibili: custom

OpenAI.EvalGraderPython

Nome Digitare Descrizione Obbligatorio Predefinito
image_tag Stringa Tag immagine da usare per lo script Python. No
Nome Stringa Nome del grader.
pass_threshold Numero Soglia per il punteggio. No
fonte Stringa Codice sorgente dello script Python.
digitare Enum Tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.EvalGraderScoreModel

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.EvalItem Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello.
Modello Stringa Modello da utilizzare per la valutazione.
Nome Stringa Nome del grader.
pass_threshold Numero Soglia per il punteggio. No
Gamma matrice di numeri Intervallo del punteggio. Il valore predefinito è [0, 1]. No
sampling_params OpenAI.EvalGraderScoreModelSamplingParams No
└max_completions_tokens integer o null No
└reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
└* valore di inizializzazione integer o null No
└* temperatura number o null No
└top_p number o null No 1
digitare Enum Tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.EvalGraderScoreModelSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
max_completions_tokens integer o null No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme integer o null No
Temperatura number o null No
top_p number o null No

OpenAI.EvalGraderStringCheck

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa Testo di input. Ciò può includere stringhe di modello.
Nome Stringa Nome del grader.
Operazione Enum Operazione di controllo della stringa da eseguire. Uno di eq, ne, likeo ilike.
Valori possibili: eq, ne, like, ilike
Riferimento Stringa Testo di riferimento. Ciò può includere stringhe di modello.
digitare Enum Tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.EvalGraderTextSimilarity

Nome Digitare Descrizione Obbligatorio Predefinito
evaluation_metric Enum Metrica di valutazione da usare. Uno di cosine, fuzzy_match, bleu, ,
gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5
o rouge_l.
Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Input Stringa Testo classificato.
Nome Stringa Nome del grader.
pass_threshold Numero Soglia per il punteggio.
Riferimento Stringa Testo a cui viene eseguito il voto.
digitare Enum Tipo di grader.
Valori possibili: text_similarity

OpenAI.EvalItem

Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo . Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto OpenAI.EvalItemContent Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.
Ruolo Enum Ruolo dell'input del messaggio. Uno di user, assistant, systemo
developer.
Valori possibili: user, assistant, system, developer
digitare Enum Tipo di input del messaggio. Sempre message.
Valori possibili: message
No

OpenAI.EvalItemContent

Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.

Tipo: OpenAI.EvalItemContentItem o OpenAI.EvalItemContentArray

Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.

OpenAI.EvalItemContentArray

Elenco di input, ognuno dei quali può essere un testo di input, testo di output, immagine di input o oggetto audio di input.

Matrice di: OpenAI.EvalItemContentItem

OpenAI.EvalItemContentItem

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

Tipo: OpenAI.EvalItemContentText o OpenAI.EvalItemContentItemObject

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

OpenAI.EvalItemContentItemObject

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

Discriminare per OpenAI.EvalItemContentItemObject

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
output_text OpenAI.EvalItemContentOutputText
input_image OpenAI.EvalItemInputImage
input_audio OpenAI.InputAudio
input_text OpenAI.EvalItemContentItemObjectInputTextContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.EvalItemContentItemObjectType

OpenAI.EvalItemContentItemObjectInputTextContent

Input di testo per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Input di testo per il modello.
digitare Enum Tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.EvalItemContentItemObjectType

Proprietà Valore
Digitare Stringa
Valori input_text
output_text
input_image
input_audio

OpenAI.EvalItemContentOutputText

Output di testo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Output di testo del modello.
digitare Enum Tipo del testo di output. Sempre output_text.
Valori possibili: output_text

OpenAI.EvalItemContentText

Input di testo per il modello.

Tipo: string

OpenAI.EvalItemInputImage

Blocco di input immagine usato nelle matrici di contenuto EvalItem.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Stringa Livello di dettaglio dell'immagine da inviare al modello. Uno di high, lowo auto. Il valore predefinito è auto. No
image_url Stringa URL dell'input dell'immagine.
digitare Enum Tipo di input dell'immagine. Sempre input_image.
Valori possibili: input_image

OpenAI.EvalJsonlFileContentSource

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.EvalJsonlFileContentSourceContentContent Contenuto del file jsonl.
digitare Enum Tipo di origine jsonl. Sempre file_content.
Valori possibili: file_content

OpenAI.EvalJsonlFileContentSourceContentContent

Nome Digitare Descrizione Obbligatorio Predefinito
Elemento Oggetto
Esempio Oggetto No

OpenAI.EvalJsonlFileIdSource

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa Identificatore del file.
digitare Enum Tipo di origine jsonl. Sempre file_id.
Valori possibili: file_id

OpenAI.EvalList

Oggetto che rappresenta un elenco di valori.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Eval Matrice di oggetti eval.
first_id Stringa Identificatore della prima eval nella matrice di dati.
has_more Boolean Indica se sono disponibili più valse.
last_id Stringa Identificatore dell'ultima eval nella matrice di dati.
Oggetto Enum Tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalLogsDataSourceConfig

LogsDataSourceConfig che specifica la proprietà dei metadati della query di log. Si tratta in genere di metadati come usecase=chatbot o prompt-version=v2e così via. Lo schema restituito da questa configurazione dell'origine dati viene usato per definire quali variabili sono disponibili nelle evals. item e sample sono entrambi definiti quando si usa questa configurazione dell'origine dati.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
Schema Oggetto Schema json per gli elementi dell'origine dati di esecuzione.
Informazioni su come creare schemi JSON qui.
digitare Enum Tipo di origine dati. Sempre logs.
Valori possibili: logs

OpenAI.EvalResponsesSource

Oggetto EvalResponsesSource che descrive una configurazione dell'origine dati di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_after integer o null No
created_before integer o null No
instructions_search stringa o null No
Metadati oggetto o null No
Modello stringa o null No
reasoning_effort OpenAI.ReasoningEffort o null No
Temperatura number o null No
Strumenti matrice di stringhe o null No
top_p number o null No
digitare Enum Tipo di origine dati di esecuzione. Sempre responses.
Valori possibili: responses
Gli utenti matrice di stringhe o null No

OpenAI.EvalRun

Schema che rappresenta un'esecuzione di valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Informazioni sull'origine dati dell'esecuzione.
Errore OpenAI.EvalApiError Oggetto che rappresenta una risposta di errore dall'API Eval.
eval_id Stringa Identificatore della valutazione associata.
Id Stringa Identificatore univoco per l'esecuzione della valutazione.
Metadati OpenAI.Metadata o Null
Modello Stringa Modello valutato, se applicabile.
Nome Stringa Nome dell'esecuzione della valutazione.
Oggetto Enum Tipo dell'oggetto. Sempre "eval.run".
Valori possibili: eval.run
per_model_usage matrice di OpenAI.EvalRunPerModelUsage Statistiche di utilizzo per ogni modello durante l'esecuzione della valutazione.
per_testing_criteria_results matrice di OpenAI.EvalRunPerTestingCriteriaResults Risultati in base ai criteri di test applicati durante l'esecuzione della valutazione.
report_url Stringa URL del report di esecuzione della valutazione di cui è stato eseguito il rendering nel dashboard dell'interfaccia utente.
result_counts OpenAI.EvalRunResultCounts
└* errore Intero
└* non riuscito Intero
└> superato Intero
└* totale Intero
Stato Stringa Stato dell'esecuzione della valutazione.

OpenAI.EvalRunList

Oggetto che rappresenta un elenco di esecuzioni per una valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.EvalRun Matrice di oggetti di esecuzione di eval.
first_id Stringa Identificatore della prima esecuzione dell'eval nella matrice di dati.
has_more Boolean Indica se sono disponibili più valse.
last_id Stringa Identificatore dell'ultima esecuzione dell'ultima eval nella matrice di dati.
Oggetto Enum Tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunOutputItem

Schema che rappresenta un elemento di output dell'esecuzione della valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
datasource_item Oggetto Dettagli dell'elemento dell'origine dati di input.
datasource_item_id Intero Identificatore dell'elemento dell'origine dati.
eval_id Stringa Identificatore del gruppo di valutazione.
Id Stringa Identificatore univoco per l'elemento di output dell'esecuzione della valutazione.
Oggetto Enum Tipo dell'oggetto. Sempre "eval.run.output_item".
Valori possibili: eval.run.output_item
Risultati matrice di OpenAI.EvalRunOutputItemResult Elenco dei risultati del grader per questo elemento di output.
run_id Stringa Identificatore dell'esecuzione di valutazione associata a questo elemento di output.
Esempio OpenAI.EvalRunOutputItemSample
Errore └* OpenAI.EvalApiError Oggetto che rappresenta una risposta di errore dall'API Eval.
└finish_reason Stringa
Input └* matrice di OpenAI.EvalRunOutputItemSampleInput
└max_completion_tokens Intero
Modello └* Stringa
└* output matrice di OpenAI.EvalRunOutputItemSampleOutputOutput
└* valore di inizializzazione Intero
└* temperatura Numero
└top_p Numero
└* utilizzo OpenAI.EvalRunOutputItemSampleUsage
Stato Stringa Stato dell'esecuzione della valutazione.

OpenAI.EvalRunOutputItemList

Oggetto che rappresenta un elenco di elementi di output per un'esecuzione di valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.EvalRunOutputItem Matrice di oggetti elemento di output di esecuzione eval.
first_id Stringa Identificatore del primo elemento di output dell'esecuzione di eval nella matrice di dati.
has_more Boolean Indica se sono disponibili più elementi di output dell'esecuzione di eval.
last_id Stringa Identificatore dell'ultimo elemento di output dell'esecuzione di eval nella matrice di dati.
Oggetto Enum Tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunOutputItemResult

Risultato di un singolo gradore per un elemento di output dell'esecuzione della valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Nome del grader.
Passato Boolean Indica se il grader ha considerato l'output un passaggio.
Esempio oggetto o null Dati facoltativi di esempio o intermedi prodotti dal grader. No
Punteggio Numero Punteggio numerico prodotto dal grader.
digitare Stringa Tipo di grader (ad esempio, "string-check-grader"). No

OpenAI.EvalRunOutputItemSample

Nome Digitare Descrizione Obbligatorio Predefinito
Errore OpenAI.EvalApiError Oggetto che rappresenta una risposta di errore dall'API Eval.
finish_reason Stringa
Input matrice di OpenAI.EvalRunOutputItemSampleInput
max_completion_tokens Intero
Modello Stringa
Output matrice di OpenAI.EvalRunOutputItemSampleOutputOutput
Seme Intero
Temperatura Numero
top_p Numero
Utilizzo OpenAI.EvalRunOutputItemSampleUsage

OpenAI.EvalRunOutputItemSampleInput

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa
Ruolo Stringa

OpenAI.EvalRunOutputItemSampleOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa No
Ruolo Stringa No

OpenAI.EvalRunOutputItemSampleUsage

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero
completion_tokens Intero
prompt_tokens Intero
total_tokens Intero

OpenAI.EvalRunPerModelUsage

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero
completion_tokens Intero
invocation_count Intero
model_name Stringa
prompt_tokens Intero
total_tokens Intero

OpenAI.EvalRunPerTestingCriteriaResults

Nome Digitare Descrizione Obbligatorio Predefinito
Fallito Intero
Passato Intero
testing_criteria Stringa

OpenAI.EvalRunResultCounts

Nome Digitare Descrizione Obbligatorio Predefinito
errore Intero
Fallito Intero
Passato Intero
Totale Intero

OpenAI.EvalStoredCompletionsDataSourceConfig

Deprecato a favore di LogsDataSourceConfig.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
Schema Oggetto Schema json per gli elementi dell'origine dati di esecuzione.
Informazioni su come creare schemi JSON qui.
digitare Enum Tipo di origine dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.EvalStoredCompletionsSource

Una configurazione StoredCompletionsRunDataSource che descrive un set di filtri

Nome Digitare Descrizione Obbligatorio Predefinito
created_after integer o null No
created_before integer o null No
Limite integer o null No
Metadati OpenAI.Metadata o Null No
Modello stringa o null No
digitare Enum Tipo di origine. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.FileCitationBody

Citazione in un file.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa ID del file.
Filename Stringa Nome file del file citato.
Indice Intero Indice del file nell'elenco di file.
digitare Enum Tipo di citazione del file. Sempre file_citation.
Valori possibili: file_citation

OpenAI.FilePath

Percorso di un file.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa ID del file.
Indice Intero Indice del file nell'elenco di file.
digitare Enum Tipo del percorso del file. Sempre file_path.
Valori possibili: file_path

OpenAI.FileSearchRanker

Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker.

Proprietà Valore
Digitare Stringa
Valori auto
default_2024_08_21

OpenAI.FileSearchRankingOptions

Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0. Per altre informazioni, vedere la documentazione dello strumento di ricerca file .

Nome Digitare Descrizione Obbligatorio Predefinito
ranker OpenAI.FileSearchRanker Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker. No
score_threshold Numero Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.FileSearchTool

Strumento che cerca il contenuto pertinente dai file caricati.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.Filters o null No
max_num_results Intero Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. No
ranking_options OpenAI.RankingOptions No
└hybrid_search OpenAI.HybridSearchOptions Pesi che controllano il modo in cui la fusione tra rango reciproco bilancia le corrispondenze di incorporamento semantico e le corrispondenze di parole chiave sparse quando la ricerca ibrida è abilitata. No
└* ranker OpenAI.RankerVersionType Ranker da usare per la ricerca di file. No
└score_threshold Numero Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1. I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. No
digitare Enum Tipo dello strumento di ricerca file. Sempre file_search.
Valori possibili: file_search
vector_store_ids matrice di stringhe ID degli archivi vettoriali da cercare.

OpenAI.FileSearchToolCallResults

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
File_id Stringa No
Filename Stringa No
Punteggio Numero No
Testo Stringa No

OpenAI.Filters

Tipo: OpenAI.ComparisonFilter o OpenAI.CompoundFilter

OpenAI.FineTuneDPOHyperparameters

Iperparametri usati per il processo di ottimizzazione del dpo.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
Beta stringa o numero Valore beta per il metodo DPO. Un valore beta più alto aumenterà il peso della penalità tra il criterio e il modello di riferimento. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Numero di periodi per cui eseguire il training del modello. Un periodo fa riferimento a un ciclo completo attraverso il set di dati di training. No

OpenAI.FineTuneDPOMethod

Configurazione per il metodo di ottimizzazione del dpo.

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.FineTuneDPOHyperparameters Iperparametri usati per il processo di ottimizzazione del dpo. No

OpenAI.FineTuneMethod

Metodo utilizzato per l'ottimizzazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dpo OpenAI.FineTuneDPOMethod Configurazione per il metodo di ottimizzazione del dpo. No
Rinforzo AzureFineTuneReinforcementMethod No
Sorvegliato OpenAI.FineTuneSupervisedMethod Configurazione per il metodo di ottimizzazione con supervisione. No
digitare Enum Tipo di metodo. supervisedÈ , dpoo reinforcement.
Valori possibili: supervised, dpo, reinforcement

OpenAI.FineTuneReinforcementHyperparameters

Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
compute_multiplier stringa o numero Moltiplicatore per la quantità di calcolo usata per esplorare lo spazio di ricerca durante il training. No
eval_interval stringa o integer Numero di passaggi di training tra le esecuzioni di valutazione. No
eval_samples stringa o integer Numero di campioni di valutazione da generare per ogni passaggio di training. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Numero di periodi per cui eseguire il training del modello. Un periodo fa riferimento a un ciclo completo attraverso il set di dati di training. No
reasoning_effort Enum Livello di sforzo di ragionamento.
Valori possibili: default, low, medium, high
No

OpenAI.FineTuneSupervisedHyperparameters

Iperparametri usati per il processo di ottimizzazione.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Numero di periodi per cui eseguire il training del modello. Un periodo fa riferimento a un ciclo completo attraverso il set di dati di training. No

OpenAI.FineTuneSupervisedMethod

Configurazione per il metodo di ottimizzazione con supervisione.

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.FineTuneSupervisedHyperparameters Iperparametri usati per il processo di ottimizzazione. No

OpenAI.FineTuningCheckpointPermission

L'oggetto checkpoint.permission rappresenta un'autorizzazione per un checkpoint del modello ottimizzato.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stata creata l'autorizzazione.
Id Stringa Identificatore di autorizzazione a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre "checkpoint.permission".
Valori possibili: checkpoint.permission
project_id Stringa Identificatore del progetto per cui è destinata l'autorizzazione.

OpenAI.FineTuningIntegration

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di integrazione abilitata per il processo di ottimizzazione
Valori possibili: wandb
wandb OpenAI.FineTuningIntegrationWandb
Entità └* stringa o null No
└> nome stringa o null No
Progetto └* Stringa
└* tag matrice di stringhe No

OpenAI.FineTuningIntegrationWandb

Nome Digitare Descrizione Obbligatorio Predefinito
Entità stringa o null No
Nome stringa o null No
Progetto Stringa
Tag matrice di stringhe No

OpenAI.FineTuningJob

L'oggetto fine_tuning.job rappresenta un processo di ottimizzazione che è stato creato tramite l'API.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione.
Errore OpenAI.FineTuningJobError o null
estimated_finish stringa o null No
fine_tuned_model stringa o null
finished_at stringa o null
iperparametri OpenAI.FineTuningJobHyperparameters
└batch_size string o integer o null No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Id Stringa Identificatore dell'oggetto a cui è possibile fare riferimento negli endpoint API.
Integrazioni matrice di OpenAI.FineTuningIntegration o null No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello Stringa Modello di base ottimizzato.
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job".
Valori possibili: fine_tuning.job
organization_id Stringa Organizzazione proprietaria del processo di ottimizzazione.
result_files matrice di stringhe ID file di risultati compilati per il processo di ottimizzazione. È possibile recuperare i risultati con l'API Files.
Seme Intero Valore di inizializzazione utilizzato per il processo di ottimizzazione.
Stato Enum Stato corrente del processo di ottimizzazione, che può essere validating_files, queuedrunningsucceededfailedo .cancelled
Valori possibili: validating_files, queuedrunning, succeeded, , failedcancelled
trained_tokens integer o null
training_file Stringa ID file utilizzato per il training. È possibile recuperare i dati di training con l'API Files.
validation_file stringa o null

OpenAI.FineTuningJobCheckpoint

L'oggetto fine_tuning.job.checkpoint rappresenta un checkpoint del modello per un processo di ottimizzazione pronto per l'uso.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il checkpoint.
fine_tuned_model_checkpoint Stringa Nome del modello di checkpoint ottimizzato creato.
fine_tuning_job_id Stringa Nome del processo di ottimizzazione da cui è stato creato il checkpoint.
Id Stringa Identificatore del checkpoint, a cui è possibile fare riferimento negli endpoint API.
Metriche OpenAI.FineTuningJobCheckpointMetrics
└full_valid_loss Numero No
└full_valid_mean_token_accuracy Numero No
└* passaggio Numero No
└train_loss Numero No
└train_mean_token_accuracy Numero No
└valid_loss Numero No
└valid_mean_token_accuracy Numero No
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job.checkpoint".
Valori possibili: fine_tuning.job.checkpoint
step_number Intero Numero di passaggio in cui è stato creato il checkpoint.

OpenAI.FineTuningJobCheckpointMetrics

Nome Digitare Descrizione Obbligatorio Predefinito
full_valid_loss Numero No
full_valid_mean_token_accuracy Numero No
Passo Numero No
train_loss Numero No
train_mean_token_accuracy Numero No
valid_loss Numero No
valid_mean_token_accuracy Numero No

OpenAI.FineTuningJobError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa
Messaggio Stringa
Param stringa o null

OpenAI.FineTuningJobEvent

Oggetto evento processo di ottimizzazione

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione.
Dati OpenAI.FineTuningJobEventData No
Id Stringa Identificatore dell'oggetto.
Livello Enum Livello di log dell'evento.
Valori possibili: info, warn, error
Messaggio Stringa Messaggio dell'evento.
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job.event".
Valori possibili: fine_tuning.job.event
digitare Enum Tipo di evento.
Valori possibili: message, metrics
No

OpenAI.FineTuningJobEventData

Tipo: oggetto

OpenAI.FineTuningJobHyperparameters

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size string o integer o null No
learning_rate_multiplier stringa o numero No
n_epochs stringa o integer No

OpenAI.FunctionAndCustomToolCallOutput

Discriminare per OpenAI.FunctionAndCustomToolCallOutput

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
input_text OpenAI.FunctionAndCustomToolCallOutputInputTextContent
input_image OpenAI.FunctionAndCustomToolCallOutputInputImageContent
input_file OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.FunctionAndCustomToolCallOutputType

OpenAI.FunctionAndCustomToolCallOutputInputFileContent

Input di file per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Nome del file da inviare al modello. No
digitare Enum Tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.FunctionAndCustomToolCallOutputInputImageContent

Input dell'immagine per il modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.FunctionAndCustomToolCallOutputInputTextContent

Input di testo per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Input di testo per il modello.
digitare Enum Tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.FunctionAndCustomToolCallOutputType

Proprietà Valore
Digitare Stringa
Valori input_text
input_image
input_file

OpenAI.FunctionObject

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. No
Nome Stringa Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
Parametri OpenAI.FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
No
Rigorosa booleano o null No

OpenAI.FunctionParameters

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione parameters definisce una funzione con un elenco di parametri vuoto.

Tipo: oggetto

OpenAI.FunctionShellAction

Eseguire un comando shell.

Nome Digitare Descrizione Obbligatorio Predefinito
Comandi matrice di stringhe
max_output_length integer o null
timeout_ms integer o null

OpenAI.FunctionShellCallOutputContent

Contenuto di un output di chiamata dello strumento shell generato.

Nome Digitare Descrizione Obbligatorio Predefinito
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Risultato OpenAI.FunctionShellCallOutputOutcome Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell.
Tipo └* OpenAI.FunctionShellCallOutputOutcomeType
Stderr Stringa Output degli errori standard acquisito.
Stdout Stringa Output standard acquisito.

OpenAI.FunctionShellCallOutputExitOutcome

Indica che i comandi della shell sono stati completati e restituiti un codice di uscita.

Nome Digitare Descrizione Obbligatorio Predefinito
exit_code Intero Uscire dal processo della shell.
digitare Enum Tipo di risultato. Sempre exit.
Valori possibili: exit

OpenAI.FunctionShellCallOutputOutcome

Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell.

Discriminare per OpenAI.FunctionShellCallOutputOutcome

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
timeout OpenAI.FunctionShellCallOutputTimeoutOutcome
exit OpenAI.FunctionShellCallOutputExitOutcome
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.FunctionShellCallOutputOutcomeType

OpenAI.FunctionShellCallOutputOutcomeType

Proprietà Valore
Digitare Stringa
Valori timeout
exit

OpenAI.FunctionShellCallOutputTimeoutOutcome

Indica che la chiamata della shell ha superato il limite di tempo configurato.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di risultato. Sempre timeout.
Valori possibili: timeout

OpenAI.FunctionShellToolParam

Strumento che consente al modello di eseguire comandi della shell.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dello strumento shell. Sempre shell.
Valori possibili: shell

OpenAI.FunctionTool

Definisce una funzione nel codice personalizzato che il modello può scegliere di chiamare.

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione stringa o null No
Nome Stringa Nome della funzione da chiamare.
Parametri oggetto o null
Rigorosa booleano o null
digitare Enum Tipo dello strumento funzione. Sempre function.
Valori possibili: function

OpenAI.GraderMulti

Un oggetto MultiGrader combina l'output di più classificatori per produrre un singolo punteggio.

Nome Digitare Descrizione Obbligatorio Predefinito
calculate_output Stringa Formula per calcolare l'output in base ai risultati del grader.
Livellatrici OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o GraderEndpoint
Nome Stringa Nome del grader.
digitare Enum Tipo di oggetto, che è sempre multi.
Valori possibili: multi

OpenAI.GraderPython

Oggetto PythonGrader che esegue uno script Python nell'input.

Nome Digitare Descrizione Obbligatorio Predefinito
image_tag Stringa Tag immagine da usare per lo script Python. No
Nome Stringa Nome del grader.
fonte Stringa Codice sorgente dello script Python.
digitare Enum Tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.GraderScoreModel

Oggetto ScoreModelGrader che usa un modello per assegnare un punteggio all'input.

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.EvalItem Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello.
Modello Stringa Modello da utilizzare per la valutazione.
Nome Stringa Nome del grader.
Gamma matrice di numeri Intervallo del punteggio. Il valore predefinito è [0, 1]. No
sampling_params OpenAI.EvalGraderScoreModelSamplingParams No
└max_completions_tokens integer o null No
└reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
└* valore di inizializzazione integer o null No
└* temperatura number o null No
└top_p number o null No 1
digitare Enum Tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.GraderStringCheck

Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa Testo di input. Ciò può includere stringhe di modello.
Nome Stringa Nome del grader.
Operazione Enum Operazione di controllo della stringa da eseguire. Uno di eq, ne, likeo ilike.
Valori possibili: eq, ne, like, ilike
Riferimento Stringa Testo di riferimento. Ciò può includere stringhe di modello.
digitare Enum Tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.GraderTextSimilarity

Oggetto TextSimilarityGrader che assegna un grado al testo in base alle metriche di somiglianza.

Nome Digitare Descrizione Obbligatorio Predefinito
evaluation_metric Enum Metrica di valutazione da usare. Uno di cosine, fuzzy_match, bleu, ,
gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5
o rouge_l.
Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Input Stringa Testo classificato.
Nome Stringa Nome del grader.
Riferimento Stringa Testo a cui viene eseguito il voto.
digitare Enum Tipo di grader.
Valori possibili: text_similarity

OpenAI.GrammarSyntax1

Proprietà Valore
Digitare Stringa
Valori lark
regex

OpenAI.HybridSearchOptions

Nome Digitare Descrizione Obbligatorio Predefinito
embedding_weight Numero Peso dell'incorporamento nella fusione di rango reciproca.
text_weight Numero Peso del testo nella fusione di rango reciproco.

OpenAI.ImageDetail

Proprietà Valore
Digitare Stringa
Valori low
high
auto

OpenAI.ImageGenTool

Strumento che genera immagini usando i modelli di immagine GPT.

Modelli validi:

gpt-image-1
gpt-image-1-mini
gpt-image-2
Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa Enum Tipo di sfondo per l'immagine generata. Uno di transparent,
opaque autoo . Impostazione predefinita: auto.
Valori possibili: transparent, opaque, auto
No
input_fidelity OpenAI.InputFidelity o null No
input_image_mask OpenAI.ImageGenToolInputImageMask No
└file_id Stringa No
└image_url Stringa No
Modello string (vedere modelli validi di seguito) No
Moderazione Enum Livello di moderazione per l'immagine generata. Impostazione predefinita: auto.
Valori possibili: auto, low
No
output_compression Intero Livello di compressione per l'immagine di output. Impostazione predefinita: 100.
Vincoli: min: 0, max: 100
No 100
output_format Enum Formato di output dell'immagine generata. Uno di png, webpo
jpeg. Impostazione predefinita: png.
Valori possibili: png, webp, jpeg
No
partial_images Intero Numero di immagini parziali da generare in modalità di streaming, da 0 (valore predefinito) a 3.
Vincoli: min: 0, max: 3
No
Qualità Enum Qualità dell'immagine generata. Uno di low, medium, high, ,
o auto. Impostazione predefinita: auto.
Valori possibili: low, medium, high, auto
No
Dimensione Enum Dimensioni dell'immagine generata. Uno di 1024x1024, 1024x1536,
1536x1024 autoo . Impostazione predefinita: auto.
Valori possibili: 1024x1024, 1024x1536, 1536x1024, auto
No
digitare Enum Tipo dello strumento di generazione di immagini. Sempre image_generation.
Valori possibili: image_generation

OpenAI.ImageGenToolInputImageMask

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
image_url Stringa No

OpenAI.IncludeEnum

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web.
  • code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice.
  • computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer.
  • file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
  • message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
  • message.output_text.logprobs: includere logprobs con messaggi di assistente.
  • reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando il store parametro è impostato su falseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero).
Proprietà Valore
Descrizione Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
  • web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web.
  • code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice.
  • computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer.
  • file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
  • message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
  • message.output_text.logprobs: includere logprobs con messaggi di assistente.
  • reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando il store parametro è impostato su falseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero). | | Tipo | string | | Valori | file_search_call.results
    web_search_call.results
    web_search_call.action.sources
    message.input_image.image_url
    computer_call_output.output.image_url
    code_interpreter_call.outputs
    reasoning.encrypted_content
    message.output_text.logprobs |

OpenAI.InputAudio

Input audio per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_audio OpenAI.InputAudioInputAudio
digitare Enum Tipo dell'elemento di input. Sempre input_audio.
Valori possibili: input_audio

OpenAI.InputAudioInputAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
Formato Enum
Valori possibili: mp3, wav

OpenAI.InputContent

Discriminare per OpenAI.InputContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
input_text OpenAI.InputContentInputTextContent
input_image OpenAI.InputContentInputImageContent
input_file OpenAI.InputContentInputFileContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.InputContentType

OpenAI.InputContentInputFileContent

Input di file per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Nome del file da inviare al modello. No
digitare Enum Tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.InputContentInputImageContent

Input dell'immagine per il modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.InputContentInputTextContent

Input di testo per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Input di testo per il modello.
digitare Enum Tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.InputContentType

Proprietà Valore
Digitare Stringa
Valori input_text
input_image
input_file

OpenAI.InputFidelity

Controllare quanto sforzo il modello eserciterà per trovare le corrispondenze con lo stile e le caratteristiche, in particolare le caratteristiche facciali, delle immagini di input. Questo parametro è supportato solo per gpt-image-1 e gpt-image-2. Non supportato per gpt-image-1-mini. Supporta high e low. Il valore predefinito è low.

Proprietà Valore
Digitare Stringa
Valori high
low

OpenAI.InputFileContent

Input di file per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Nome del file da inviare al modello. No
digitare Enum Tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.InputImageContent

Input dell'immagine per il modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.InputItem

Discriminare per OpenAI.InputItem

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
message OpenAI.EasyInputMessage
item_reference OpenAI.ItemReferenceParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.InputItemType

OpenAI.InputItemType

Proprietà Valore
Digitare Stringa
Valori message
item_reference

OpenAI.InputMessageContentList

Elenco di uno o più elementi di input per il modello, contenente tipi di contenuto diversi.

Matrice di: OpenAI.InputContent

OpenAI.InputMessageResource

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto OpenAI.InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
Tipi.
Id Stringa ID univoco dell'input del messaggio.
Ruolo Enum Ruolo dell'input del messaggio. Uno di user, systemo developer.
Valori possibili: user, system, developer
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di input del messaggio. Impostare sempre su message.
Valori possibili: message

OpenAI.InputParam

Input di testo, immagine o file nel modello, usato per generare una risposta. Ulteriori informazioni:

Tipo: stringa o matrice di OpenAI.InputItem

Input di testo, immagine o file nel modello, usato per generare una risposta. Ulteriori informazioni:

OpenAI.InputTextContent

Input di testo per il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Input di testo per il modello.
digitare Enum Tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.ItemReferenceParam

Identificatore interno di un elemento a cui fare riferimento.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID dell'elemento a cui fare riferimento.
digitare Enum Tipo di elemento a cui fare riferimento. Sempre item_reference.
Valori possibili: item_reference

OpenAI.ItemResource

Elemento di contenuto usato per generare una risposta.

Discriminatorio per OpenAI.ItemResource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
message OpenAI.InputMessageResource
output_message OpenAI.ItemResourceOutputMessage
file_search_call OpenAI.ItemResourceFileSearchToolCall
computer_call OpenAI.ItemResourceComputerToolCall
computer_call_output OpenAI.ItemResourceComputerToolCallOutputResource
web_search_call OpenAI.ItemResourceWebSearchToolCall
function_call OpenAI.ItemResourceFunctionToolCallResource
function_call_output OpenAI.ItemResourceFunctionToolCallOutputResource
image_generation_call OpenAI.ItemResourceImageGenToolCall
code_interpreter_call OpenAI.ItemResourceCodeInterpreterToolCall
local_shell_call OpenAI.ItemResourceLocalShellToolCall
local_shell_call_output OpenAI.ItemResourceLocalShellToolCallOutput
shell_call OpenAI.ItemResourceFunctionShellCall
shell_call_output OpenAI.ItemResourceFunctionShellCallOutput
apply_patch_call OpenAI.ItemResourceApplyPatchToolCall
apply_patch_call_output OpenAI.ItemResourceApplyPatchToolCallOutput
mcp_list_tools OpenAI.ItemResourceMcpListTools
mcp_approval_request OpenAI.ItemResourceMcpApprovalRequest
mcp_approval_response OpenAI.ItemResourceMcpApprovalResponseResource
mcp_call OpenAI.ItemResourceMcpToolCall
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ItemResourceType

OpenAI.ItemResourceApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolato quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.ItemResourceApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolato quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.ItemResourceCodeInterpreterToolCall

Chiamata dello strumento per eseguire il codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa ID univoco della chiamata dello strumento dell'interprete del codice.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Stato della chiamata dello strumento dell'interprete del codice. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completedincomplete, , interpreting,failed
digitare Enum Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.ItemResourceComputerToolCall

Una chiamata di strumento a uno strumento per l'uso di un computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Identificatore usato per rispondere alla chiamata dello strumento con output.
Id Stringa ID univoco della chiamata al computer.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam Controlli di sicurezza in sospeso per la chiamata al computer.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.ItemResourceComputerToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
acknowledged_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
Sviluppatore.
No
call_id Stringa ID della chiamata dello strumento del computer che ha prodotto l'output.
Id Stringa ID dell'output delle chiamate dello strumento computer. No
Output OpenAI.ComputerScreenshotImage Immagine di screenshot del computer usata con lo strumento per l'uso del computer.
Stato Enum Stato dell'input del messaggio. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.
Valori possibili: computer_call_output

OpenAI.ItemResourceFileSearchToolCall

Risultati di una chiamata allo strumento di ricerca file. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata allo strumento di ricerca file.
Query matrice di stringhe Query usate per cercare i file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searchingcompleted, , incomplete,failed
digitare Enum Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.ItemResourceFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolato quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.ItemResourceFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolato quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.ItemResourceFunctionToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento di funzione generata dal modello.
Id Stringa ID univoco dell'output delle chiamate dello strumento di funzione. Popolato quando questo elemento
viene restituito tramite l'API.
No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata di funzione generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.
Valori possibili: function_call_output

OpenAI.ItemResourceFunctionToolCallResource

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON degli argomenti da passare alla funzione.
call_id Stringa ID univoco della chiamata dello strumento di funzione generata dal modello.
Id Stringa ID univoco della chiamata dello strumento di funzione. No
Nome Stringa Nome della funzione da eseguire.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di chiamata dello strumento di funzione. Sempre function_call.
Valori possibili: function_call

OpenAI.ItemResourceImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.ItemResourceLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.ItemResourceLocalShellToolCallOutput

Output di una chiamata allo strumento shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Output Stringa Stringa JSON dell'output della chiamata allo strumento shell locale.
Stato stringa o null No
digitare Enum Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.
Valori possibili: local_shell_call_output

OpenAI.ItemResourceMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.ItemResourceMcpApprovalResponseResource

Risposta a una richiesta di approvazione MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id Stringa ID della richiesta di approvazione a cui viene inviata la risposta.
Approvare Boolean Indica se la richiesta è stata approvata.
Id Stringa ID univoco della risposta di approvazione
Motivo stringa o null No
digitare Enum Tipo dell'elemento. Sempre mcp_approval_response.
Valori possibili: mcp_approval_response

OpenAI.ItemResourceMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.ItemResourceMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.ItemResourceOutputMessage

Messaggio di output del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.OutputMessageContent Contenuto del messaggio di output.
Id Stringa ID univoco del messaggio di output.
Ruolo Enum Ruolo del messaggio di output. Sempre assistant.
Valori possibili: assistant
Stato Enum Stato dell'input del messaggio. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo del messaggio di output. Sempre message.
Valori possibili: output_message

OpenAI.ItemResourceType

Proprietà Valore
Digitare Stringa
Valori message
output_message
file_search_call
computer_call
computer_call_output
web_search_call
function_call
function_call_output
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ItemResourceWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.KeyPressAction

Una raccolta di keypresse il modello desidera eseguire.

Nome Digitare Descrizione Obbligatorio Predefinito
Chiavi matrice di stringhe La combinazione di tasti che il modello richiede di premere. Si tratta di una matrice di stringhe, ognuna che rappresenta una chiave.
digitare Enum Specifica il tipo di evento. Per un'azione keypress, questa proprietà è sempre impostata su keypress.
Valori possibili: keypress

OpenAI.ListBatchesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Batch
first_id Stringa No
has_more Boolean
last_id Stringa No
Oggetto Enum
Valori possibili: list

OpenAI.ListFilesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.OpenAIFile
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListFineTuningCheckpointPermissionResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningCheckpointPermission
first_id stringa o null No
has_more Boolean
last_id stringa o null No
Oggetto Enum
Valori possibili: list

OpenAI.ListFineTuningJobCheckpointsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJobCheckpoint
first_id stringa o null No
has_more Boolean
last_id stringa o null No
Oggetto Enum
Valori possibili: list

OpenAI.ListFineTuningJobEventsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJobEvent
has_more Boolean
Oggetto Enum
Valori possibili: list

OpenAI.ListMessagesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.MessageObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListModelsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Model
Oggetto Enum
Valori possibili: list

OpenAI.ListPaginatedFineTuningJobsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJob
has_more Boolean
Oggetto Enum
Valori possibili: list

OpenAI.ListRunStepsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.RunStepObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListRunsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.RunObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListVectorStoreFilesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreFileObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListVectorStoresResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.LocalShellCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete

OpenAI.LocalShellExecAction

Eseguire un comando shell nel server.

Nome Digitare Descrizione Obbligatorio Predefinito
Comando matrice di stringhe Comando da eseguire.
Env Oggetto Variabili di ambiente da impostare per il comando.
timeout_ms integer o null No
digitare Enum Tipo dell'azione della shell locale. Sempre exec.
Valori possibili: exec
Utente stringa o null No
working_directory stringa o null No

OpenAI.LocalShellToolParam

Strumento che consente al modello di eseguire comandi della shell in un ambiente locale.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dello strumento della shell locale. Sempre local_shell.
Valori possibili: local_shell

OpenAI.LogProb

Probabilità del log di un token.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi
logprob Numero
Token Stringa
top_logprobs matrice di OpenAI.TopLogProb

OpenAI.MCPListToolsTools

Strumento disponibile in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni OpenAI.MCPListToolsToolAnnotations o null No
Descrizione stringa o null No
input_schema OpenAI.MCPListToolsToolInputSchema
Nome Stringa Nome dello strumento.

OpenAI.MCPListToolsToolAnnotations

Tipo: oggetto

OpenAI.MCPListToolsToolInputSchema

Tipo: oggetto

OpenAI.MCPTool

Concedere al modello l'accesso a strumenti aggiuntivi tramite server MCP (Model Context Protocol) remoti. Altre informazioni su MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_tools matrice di string o OpenAI.MCPToolFilter o null No
Autorizzazione Stringa Token di accesso OAuth che può essere usato con un server MCP remoto,
con un URL del server MCP personalizzato o un connettore di servizi. Applicazione
deve gestire il flusso di autorizzazione OAuth e fornire il token qui.
No
connector_id Enum Identificatore per i connettori del servizio, ad esempio quelli disponibili in ChatGPT. Uno dei
server_url o connector_id deve essere fornito. Altre informazioni sul servizio
connettori qui.
I valori attualmente supportati connector_id sono:
-Dropbox: connector_dropbox
-Gmail: connector_gmail
- Google Calendar: connector_googlecalendar
- Google Drive: connector_googledrive
- Microsoft Teams: connector_microsoftteams
- Calendario di Outlook: connector_outlookcalendar
- Posta elettronica di Outlook: connector_outlookemail
-Sharepoint: connector_sharepoint
Valori possibili: connector_dropbox, connector_gmail, connector_googlecalendarconnector_googledrive, connector_microsoftteams, connector_outlookcalendar, , connector_outlookemailconnector_sharepoint
No
Intestazioni oggetto o null No
require_approval OpenAI.MCPToolRequireApproval o stringa o null No
server_description Stringa Descrizione facoltativa del server MCP, usata per fornire più contesto. No
server_label Stringa Etichetta per questo server MCP, usata per identificarla nelle chiamate degli strumenti.
server_url Stringa URL del server MCP. Uno di server_url o connector_id deve essere
Fornito.
No
digitare Enum Tipo dello strumento MCP. Sempre mcp.
Valori possibili: mcp

OpenAI.MCPToolCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete
calling
failed

OpenAI.MCPToolFilter

Oggetto filtro per specificare gli strumenti consentiti.

Nome Digitare Descrizione Obbligatorio Predefinito
Read_only Boolean Indica se uno strumento modifica o meno i dati o è di sola lettura. Se un oggetto
Il server MCP viene annotato con readOnlyHint,
corrisponderà a questo filtro.
No
tool_names matrice di stringhe Elenco dei nomi degli strumenti consentiti. No

OpenAI.MCPToolRequireApproval

Nome Digitare Descrizione Obbligatorio Predefinito
Sempre OpenAI.MCPToolFilter Oggetto filtro per specificare gli strumenti consentiti. No
Mai OpenAI.MCPToolFilter Oggetto filtro per specificare gli strumenti consentiti. No

OpenAI.MessageContent

Discriminare per OpenAI.MessageContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
image_url OpenAI.MessageContentImageUrlObject
text OpenAI.MessageContentTextObject
refusal OpenAI.MessageContentRefusalObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.MessageContentType

OpenAI.MessageContentImageFileObject

Fa riferimento a un file di immagine nel contenuto di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
image_file OpenAI.MessageContentImageFileObjectImageFile
digitare Enum Sempre image_file.
Valori possibili: image_file

OpenAI.MessageContentImageFileObjectImageFile

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
File_id Stringa

OpenAI.MessageContentImageUrlObject

Fa riferimento a un URL di immagine nel contenuto di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
image_url OpenAI.MessageContentImageUrlObjectImageUrl
digitare Enum Tipo della parte di contenuto.
Valori possibili: image_url

OpenAI.MessageContentImageUrlObjectImageUrl

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
Url Stringa

OpenAI.MessageContentRefusalObject

Contenuto di rifiuto generato dall'assistente.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa
digitare Enum Sempre refusal.
Valori possibili: refusal

OpenAI.MessageContentTextAnnotationsFileCitationObject

Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare i file.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero Vincoli: min: 0
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
start_index Intero Vincoli: min: 0
Testo Stringa Testo nel contenuto del messaggio che deve essere sostituito.
digitare Enum Sempre file_citation.
Valori possibili: file_citation

OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.MessageContentTextAnnotationsFilePathObject

URL del file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero Vincoli: min: 0
file_path OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
start_index Intero Vincoli: min: 0
Testo Stringa Testo nel contenuto del messaggio che deve essere sostituito.
digitare Enum Sempre file_path.
Valori possibili: file_path

OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.MessageContentTextObject

Contenuto di testo che fa parte di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo OpenAI.MessageContentTextObjectTextText
digitare Enum Sempre text.
Valori possibili: text

OpenAI.MessageContentTextObjectTextText

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.TextAnnotation
Valore Stringa

OpenAI.MessageContentType

Proprietà Valore
Digitare Stringa
Valori image_file
image_url
text
refusal

OpenAI.MessageObject

Rappresenta un messaggio all'interno di un thread.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id stringa o null
Allegati matrice di OpenAI.MessageObjectAttachments o null
completed_at stringa o null
Contenuto matrice di OpenAI.MessageContent Contenuto del messaggio in matrice di testo e/o immagini.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il messaggio.
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
incomplete_at stringa o null
incomplete_details OpenAI.MessageObjectIncompleteDetails o null
Metadati OpenAI.Metadata o Null
Oggetto Enum Tipo di oggetto, che è sempre thread.message.
Valori possibili: thread.message
Ruolo Enum Entità che ha generato il messaggio. Uno di user o assistant.
Valori possibili: user, assistant
run_id stringa o null
Stato Enum Stato del messaggio, che può essere in_progress, incompleteo completed.
Valori possibili: in_progress, incomplete, completed
thread_id Stringa ID thread a cui appartiene il messaggio.

OpenAI.MessageObjectAttachments

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
Strumenti matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly No

OpenAI.MessageObjectIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: content_filter, max_tokensrun_cancelled, , run_expired,run_failed

OpenAI.MessageRequestContentTextObject

Contenuto di testo che fa parte di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo da inviare al modello
digitare Enum Sempre text.
Valori possibili: text

OpenAI.MessageRole

Proprietà Valore
Digitare Stringa
Valori unknown
user
assistant
system
critic
discriminator
developer
tool

OpenAI.MessageStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete

OpenAI.Metadata

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Tipo: oggetto

OpenAI.Model

Descrive un'offerta di modello OpenAI che può essere usata con l'API.

Nome Digitare Descrizione Obbligatorio Predefinito
Creato Intero Timestamp Unix (in secondi) al momento della creazione del modello.
Id Stringa Identificatore del modello, a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre "model".
Valori possibili: model
owned_by Stringa Organizzazione proprietaria del modello.

OpenAI.ModifyMessageRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

OpenAI.ModifyRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

OpenAI.ModifyThreadRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.ModifyThreadRequestToolResources o null No

OpenAI.ModifyThreadRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter No
file_search OpenAI.ModifyThreadRequestToolResourcesFileSearch No

OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.ModifyThreadRequestToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.Move

Azione di spostamento del mouse.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è
sempre impostato su move.
Valori possibili: move
X Intero Coordinata x in cui spostarsi.
Y Intero Coordinata y in cui spostarsi.

OpenAI.NoiseReductionType

Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Proprietà Valore
Digitare Stringa
Valori near_field
far_field

OpenAI.OpenAIFile

L'oggetto File rappresenta un documento caricato in OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte Intero Dimensioni del file, in byte.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il file.
expires_at Intero Timestamp Unix (in secondi) per la scadenza del file. No
Filename Stringa Nome del file.
Id Stringa Identificatore di file a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre file.
Valori possibili: file
Scopo Enum Scopo previsto del file. I valori supportati sono assistants, assistants_output, batchbatch_output, fine-tune e fine-tune-results.
Valori possibili: assistants, assistants_output, batchbatch_output, fine-tune, , fine-tune-resultsevals
Stato Enum
Valori possibili: uploaded, pending, runningprocessed, error, , deletingdeleted
status_details stringa (deprecata) Deprecato. Per informazioni dettagliate sul motivo per cui una convalida del file di training di ottimizzazione non è riuscita, vedere il error campo in fine_tuning.job. No

OpenAI.OtherChunkingStrategyResponseParam

Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del chunking_strategy concetto nell'API.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Sempre other.
Valori possibili: other

OpenAI.OutputContent

Discriminare per OpenAI.OutputContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
output_text OpenAI.OutputContentOutputTextContent
refusal OpenAI.OutputContentRefusalContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputContentType

OpenAI.OutputContentOutputTextContent

Output di testo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Annotazioni dell'output di testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Output di testo del modello.
digitare Enum Tipo del testo di output. Sempre output_text.
Valori possibili: output_text

OpenAI.OutputContentRefusalContent

Rifiuto del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa Spiegazione del rifiuto dal modello.
digitare Enum Tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.OutputContentType

Proprietà Valore
Digitare Stringa
Valori output_text
refusal
reasoning_text

OpenAI.OutputItem

Discriminare per OpenAI.OutputItem

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
output_message OpenAI.OutputItemOutputMessage
file_search_call OpenAI.OutputItemFileSearchToolCall
function_call OpenAI.OutputItemFunctionToolCall
web_search_call OpenAI.OutputItemWebSearchToolCall
computer_call OpenAI.OutputItemComputerToolCall
reasoning OpenAI.OutputItemReasoningItem
compaction OpenAI.OutputItemCompactionBody
image_generation_call OpenAI.OutputItemImageGenToolCall
code_interpreter_call OpenAI.OutputItemCodeInterpreterToolCall
local_shell_call OpenAI.OutputItemLocalShellToolCall
shell_call OpenAI.OutputItemFunctionShellCall
shell_call_output OpenAI.OutputItemFunctionShellCallOutput
apply_patch_call OpenAI.OutputItemApplyPatchToolCall
apply_patch_call_output OpenAI.OutputItemApplyPatchToolCallOutput
mcp_call OpenAI.OutputItemMcpToolCall
mcp_list_tools OpenAI.OutputItemMcpListTools
mcp_approval_request OpenAI.OutputItemMcpApprovalRequest
custom_tool_call OpenAI.OutputItemCustomToolCall
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputItemType

OpenAI.OutputItemApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolato quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.OutputItemApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolato quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.OutputItemCodeInterpreterToolCall

Chiamata dello strumento per eseguire il codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa ID univoco della chiamata dello strumento dell'interprete del codice.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Stato della chiamata dello strumento dell'interprete del codice. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completedincomplete, , interpreting,failed
digitare Enum Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.OutputItemCompactionBody

Elemento di compattazione generato dall'APIv1/responses/compact.

Nome Digitare Descrizione Obbligatorio Predefinito
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
encrypted_content Stringa Contenuto crittografato prodotto dalla compattazione.
Id Stringa ID univoco dell'elemento di compattazione.
digitare Enum Tipo dell'elemento. Sempre compaction.
Valori possibili: compaction

OpenAI.OutputItemComputerToolCall

Una chiamata di strumento a uno strumento per l'uso di un computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Identificatore usato per rispondere alla chiamata dello strumento con output.
Id Stringa ID univoco della chiamata al computer.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam Controlli di sicurezza in sospeso per la chiamata al computer.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.OutputItemCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento.
Id Stringa ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. No
Input Stringa Input per la chiamata personalizzata dello strumento generata dal modello.
Nome Stringa Nome dello strumento personalizzato chiamato.
digitare Enum Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.
Valori possibili: custom_tool_call

OpenAI.OutputItemFileSearchToolCall

Risultati di una chiamata allo strumento di ricerca file. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata allo strumento di ricerca file.
Query matrice di stringhe Query usate per cercare i file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searchingcompleted, , incomplete,failed
digitare Enum Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.OutputItemFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolato quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.OutputItemFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolato quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.OutputItemFunctionToolCall

Chiamata di uno strumento per eseguire una funzione. Per altre informazioni, vedere la guida alla chiamata di funzione .

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON degli argomenti da passare alla funzione.
call_id Stringa ID univoco della chiamata dello strumento di funzione generata dal modello.
Id Stringa ID univoco della chiamata dello strumento di funzione. No
Nome Stringa Nome della funzione da eseguire.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Tipo di chiamata dello strumento di funzione. Sempre function_call.
Valori possibili: function_call

OpenAI.OutputItemImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.OutputItemLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.OutputItemMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.OutputItemMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.OutputItemMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.OutputItemOutputMessage

Messaggio di output del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.OutputMessageContent Contenuto del messaggio di output.
Id Stringa ID univoco del messaggio di output.
Ruolo Enum Ruolo del messaggio di output. Sempre assistant.
Valori possibili: assistant
Stato Enum Stato dell'input del messaggio. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo del messaggio di output. Sempre message.
Valori possibili: output_message

OpenAI.OutputItemReasoningItem

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ReasoningTextContent Ragionamento del contenuto del testo. No
encrypted_content stringa o null No
Id Stringa Identificatore univoco del contenuto di ragionamento.
Stato Enum Stato dell'elemento. Uno di in_progress, completedo
incomplete. Popolato quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
Riepilogo matrice di OpenAI.Summary Ragionamento del contenuto di riepilogo.
digitare Enum Tipo dell'oggetto. Sempre reasoning.
Valori possibili: reasoning

OpenAI.OutputItemType

Proprietà Valore
Digitare Stringa
Valori output_message
file_search_call
function_call
web_search_call
computer_call
reasoning
compaction
image_generation_call
code_interpreter_call
local_shell_call
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_call
mcp_list_tools
mcp_approval_request
custom_tool_call

OpenAI.OutputItemWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.OutputMessageContent

Discriminatorio per OpenAI.OutputMessageContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
output_text OpenAI.OutputMessageContentOutputTextContent
refusal OpenAI.OutputMessageContentRefusalContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputMessageContentType

OpenAI.OutputMessageContentOutputTextContent

Output di testo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Annotazioni dell'output di testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Output di testo del modello.
digitare Enum Tipo del testo di output. Sempre output_text.
Valori possibili: output_text

OpenAI.OutputMessageContentRefusalContent

Rifiuto del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa Spiegazione del rifiuto dal modello.
digitare Enum Tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.OutputMessageContentType

Proprietà Valore
Digitare Stringa
Valori output_text
refusal

OpenAI.OutputTextContent

Output di testo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Annotazioni dell'output di testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Output di testo del modello.
digitare Enum Tipo del testo di output. Sempre output_text.
Valori possibili: output_text

OpenAI.ParallelToolCalls

Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.

Tipo: booleano

OpenAI.PredictionContent

Contenuto di output stimato statico, ad esempio il contenuto di un file di testo che viene rigenerato.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Contenuto che deve essere confrontato durante la generazione di una risposta del modello.
Se i token generati corrispondono a questo contenuto, l'intera risposta del modello
può essere restituito molto più rapidamente.
digitare Enum Tipo di contenuto previsto da fornire. Questo tipo è
attualmente sempre content.
Valori possibili: content

OpenAI.Prompt

Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa Identificatore univoco del modello di richiesta da usare.
Variabili OpenAI.ResponsePromptVariables o null No
Versione stringa o null No

OpenAI.RankerVersionType

Proprietà Valore
Digitare Stringa
Valori auto
default-2024-11-15

OpenAI.RankingOptions

Nome Digitare Descrizione Obbligatorio Predefinito
hybrid_search OpenAI.HybridSearchOptions No
└embedding_weight Numero Peso dell'incorporamento nella fusione di rango reciproca.
└text_weight Numero Peso del testo nella fusione di rango reciproco.
ranker OpenAI.RankerVersionType No
score_threshold Numero Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1. I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. No

OpenAI.RealtimeAudioFormats

Discriminare per OpenAI.RealtimeAudioFormats

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
audio/pcm OpenAI.RealtimeAudioFormatsAudioPcm
audio/pcmu OpenAI.RealtimeAudioFormatsAudioPcmu
audio/pcma OpenAI.RealtimeAudioFormatsAudioPcma
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeAudioFormatsType

OpenAI.RealtimeAudioFormatsAudioPcm

Nome Digitare Descrizione Obbligatorio Predefinito
Tasso Enum
Valori possibili: 24000
No
digitare Enum
Valori possibili: audio/pcm

OpenAI.RealtimeAudioFormatsAudioPcma

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: audio/pcma

OpenAI.RealtimeAudioFormatsAudioPcmu

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: audio/pcmu

OpenAI.RealtimeAudioFormatsType

Proprietà Valore
Digitare Stringa
Valori audio/pcm
audio/pcmu
audio/pcma

OpenAI.RealtimeCallCreateRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Sdp Stringa Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante.
Sessione OpenAI.RealtimeSessionCreateRequestGA Configurazione dell'oggetto sessione in tempo reale. No
└* audio OpenAI.RealtimeSessionCreateRequestGAAudio Configurazione per l'input e l'output audio. No
└* include matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
└* istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
└max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modello └* Stringa Modello in tempo reale utilizzato per questa sessione. No
└output_modalities matrice di stringhe Il set di modalità con cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Modalità di scelta degli strumenti da parte del modello. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No Automatico
Strumenti └* matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
└> traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No Automatico
└\ troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
Tipo └* Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

OpenAI.RealtimeCallReferRequest

Parametri necessari per trasferire una chiamata SIP a una nuova destinazione usando l'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
target_uri Stringa URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori come
tel:+14155550123 o sip:agent\@example.com.

OpenAI.RealtimeCallRejectRequest

Parametri usati per rifiutare una chiamata SIP in ingresso gestita dall'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
status_code Intero Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)
quando viene omesso.
No

OpenAI.RealtimeCreateClientSecretRequest

Creare una sessione e un segreto client per l'API In tempo reale. La richiesta può specificare una configurazione di sessione in tempo reale o di trascrizione. Altre informazioni sull'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter No
Ancoraggio └* Enum
Valori possibili: created_at
No
└> secondi Intero Vincoli: min: 10, max: 7200 No 600
Sessione OpenAI.RealtimeSessionCreateRequestUnion No
Tipo └* OpenAI.RealtimeSessionCreateRequestUnionType

OpenAI.RealtimeCreateClientSecretRequestExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: created_at
No
Secondi Intero Vincoli: min: 10, max: 7200 No 600

OpenAI.RealtimeCreateClientSecretResponse

Risposta dalla creazione di una sessione e di un segreto client per l'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero Timestamp di scadenza per il segreto client, espresso in secondi dall'epoca.
Sessione OpenAI.RealtimeSessionCreateResponseUnion
Tipo └* OpenAI.RealtimeSessionCreateResponseUnionType
Valore Stringa Valore del segreto client generato.

OpenAI.RealtimeFunctionTool

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione della funzione, incluse indicazioni su quando e come
per chiamarlo e indicazioni su cosa indicare all'utente quando si chiama
(se qualcosa).
No
Nome Stringa Nome della funzione. No
Parametri OpenAI.RealtimeFunctionToolParameters No
digitare Enum Tipo dello strumento, ad esempio function.
Valori possibili: function
No

OpenAI.RealtimeFunctionToolParameters

Tipo: oggetto

OpenAI.RealtimeSessionCreateRequest

Nuova configurazione di sessione in tempo reale con una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto.

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw. No
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription No
Modello └* Stringa No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modalità matrice di stringhe Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No ['text', 'audio']
output_audio_format Stringa Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw. No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
Velocità Numero Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è
la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo
tra i turni del modello, non mentre è in corso una risposta.
Vincoli: min: 0,25, max: 1,5
No 1
Temperatura Numero Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Il valore predefinito è 0,8. No
tool_choice Stringa Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeSessionCreateRequestTools Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateRequestClientSecret

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero
Valore Stringa

OpenAI.RealtimeSessionCreateRequestGA

Configurazione dell'oggetto sessione in tempo reale.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateRequestGAAudio No
Input └* OpenAI.RealtimeSessionCreateRequestGAAudioInput No
└* output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
output_modalities matrice di stringhe Il set di modalità con cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Modalità di scelta degli strumenti da parte del modello. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
Traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
digitare Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

OpenAI.RealtimeSessionCreateRequestGAAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Input OpenAI.RealtimeSessionCreateRequestGAAudioInput No
Output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No

OpenAI.RealtimeSessionCreateRequestGAAudioInput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
noise_reduction OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction No
Trascrizione OpenAI.AudioTranscription No
turn_detection OpenAI.RealtimeTurnDetection No

OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni. No

OpenAI.RealtimeSessionCreateRequestGAAudioOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
Velocità Numero Vincoli: min: 0,25, max: 1,5 No 1
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateRequestGATracing

Nome Digitare Descrizione Obbligatorio Predefinito
group_id Stringa No
Metadati Oggetto No
workflow_name Stringa No

OpenAI.RealtimeSessionCreateRequestInputAudioTranscription

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa No

OpenAI.RealtimeSessionCreateRequestTools

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Nome Stringa No
Parametri OpenAI.RealtimeSessionCreateRequestToolsParameters No
digitare Enum
Valori possibili: function
No

OpenAI.RealtimeSessionCreateRequestToolsParameters

Tipo: oggetto

OpenAI.RealtimeSessionCreateRequestTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateRequestUnion

Discriminante per OpenAI.RealtimeSessionCreateRequestUnion

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
realtime OpenAI.RealtimeSessionCreateRequest
transcription OpenAI.RealtimeTranscriptionSessionCreateRequest
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeSessionCreateRequestUnionType

OpenAI.RealtimeSessionCreateRequestUnionType

Proprietà Valore
Digitare Stringa
Valori realtime
transcription

OpenAI.RealtimeSessionCreateResponse

Oggetto di configurazione sessione in tempo reale.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateResponseAudio No
Input └* OpenAI.RealtimeSessionCreateResponseAudioInput No
└* output OpenAI.RealtimeSessionCreateResponseAudioOutput No
expires_at Intero Timestamp di scadenza per la sessione, in secondi dall'epoca. No
Id Stringa Identificatore univoco per la sessione simile a sess_1234567890abcdef. No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
- item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteporte al modello
Chiamate. Questo campo consente al client di guidare il modello in base alle esigenze
Risposte. Il modello può essere indicato sul contenuto e sul formato della risposta,
(ad esempio "essere estremamente succinti", "act friendly", "here are examples of good
risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni"
nella tua voce", "ridere frequentemente"). Le istruzioni non sono garantite
per essere seguito dal modello, ma forniscono indicazioni al modello sul
comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno usate se si tratta di
il campo non è impostato e è visibile nell'evento in corrispondenza di session.created
inizio della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Il valore predefinito è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
Oggetto Stringa Tipo di oggetto. Sempre realtime.session. No
output_modalities matrice di stringhe Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No
tool_choice Stringa Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
turn_detection OpenAI.RealtimeSessionCreateResponseTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime

OpenAI.RealtimeSessionCreateResponseAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Input OpenAI.RealtimeSessionCreateResponseAudioInput No
Output OpenAI.RealtimeSessionCreateResponseAudioOutput No

OpenAI.RealtimeSessionCreateResponseAudioInput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
noise_reduction OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction No
Trascrizione OpenAI.AudioTranscription No
turn_detection OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection No

OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni. No

OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateResponseAudioOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
Velocità Numero No
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateResponseTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateResponseUnion

Discriminante per OpenAI.RealtimeSessionCreateResponseUnion

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
realtime OpenAI.RealtimeSessionCreateResponse
transcription OpenAI.RealtimeTranscriptionSessionCreateResponse
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeSessionCreateResponseUnionType

OpenAI.RealtimeSessionCreateResponseUnionType

Proprietà Valore
Digitare Stringa
Valori realtime
transcription

OpenAI.RealtimeTranscriptionSessionCreateRequest

Configurazione dell'oggetto sessione di trascrizione in tempo reale.

Nome Digitare Descrizione Obbligatorio Predefinito
Includono matrice di stringhe Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
item.input_audio_transcription.logprobs
No
input_audio_format Enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,
singolo canale (mono) e ordine dei byte little-endian.
Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction No
Tipo └* OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Lingua dell'audio di input. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Enum
Valori possibili: server_vad
No
digitare Enum
Valori possibili: transcription

OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni. No

OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Enum
Valori possibili: server_vad
No

OpenAI.RealtimeTranscriptionSessionCreateResponse

Nuova configurazione della sessione di trascrizione in tempo reale. Quando viene creata una sessione nel server tramite l'API REST, l'oggetto sessione contiene anche una chiave temporanea. Il valore TTL predefinito per le chiavi è 10 minuti. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Lingua dell'audio di input. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
Modalità matrice di stringhe Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: transcription

OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero
Valore Stringa

OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeTruncation

Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.

Proprietà Valore
Digitare Stringa
Valori auto
disabled

OpenAI.RealtimeTurnDetection

Discriminare per OpenAI.RealtimeTurnDetection

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeTurnDetectionType

OpenAI.RealtimeTurnDetectionType

Tipo: string

OpenAI.Reasoning

Solo modelli gpt-5 e serie O Opzioni di configurazione per i modelli di ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Sforzo OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
generate_summary stringa o null No
Riepilogo stringa o null No

OpenAI.ReasoningEffort

Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.

  • gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
  • Tutti i modelli prima gpt-5.1 del medium ragionamento predefinito e non supportano none.
  • Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
  • xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
Proprietà Valore
Digitare Stringa
Valori none
minimal
low
medium
high
xhigh

OpenAI.ReasoningTextContent

Ragionamento del testo dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Testo di ragionamento del modello.
digitare Enum Tipo del testo di ragionamento. Sempre reasoning_text.
Valori possibili: reasoning_text

OpenAI.RefusalContent

Rifiuto del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa Spiegazione del rifiuto dal modello.
digitare Enum Tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.Response

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
completed_at stringa o null No
content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
Conversazione OpenAI.ConversationReference o Null No
created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore OpenAI.ResponseError o null
Id Stringa Identificatore univoco per questa risposta.
incomplete_details OpenAI.ResponseIncompleteDetails o null
Istruzioni stringa o matrice di OpenAI.InputItem o null
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
Output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
output_text stringa o null No
parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

OpenAI.ResponseAudioDeltaEvent

Generato quando è presente una risposta audio parziale.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Blocco di byte audio della risposta con codifica Base64.
sequence_number Intero Numero di sequenza per questo blocco della risposta del flusso.
digitare Enum Tipo dell'evento. Sempre response.audio.delta.
Valori possibili: response.audio.delta

OpenAI.ResponseAudioTranscriptDeltaEvent

Generato quando è presente una trascrizione parziale dell'audio.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Trascrizione parziale della risposta audio.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.audio.transcript.delta.
Valori possibili: response.audio.transcript.delta

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Generato quando un frammento di codice parziale viene trasmesso dall'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Frammento di codice parziale trasmesso dall'interprete di codice.
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui viene trasmesso il codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Tipo dell'evento. Sempre response.code_interpreter_call_code.delta.
Valori possibili: response.code_interpreter_call_code.delta

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Generato quando è in corso una chiamata a un interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui è in corso la chiamata dell'interprete del codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Tipo dell'evento. Sempre response.code_interpreter_call.in_progress.
Valori possibili: response.code_interpreter_call.in_progress

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Generato quando l'interprete di codice interpreta attivamente il frammento di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui l'interprete del codice interpreta il codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Tipo dell'evento. Sempre response.code_interpreter_call.interpreting.
Valori possibili: response.code_interpreter_call.interpreting

OpenAI.ResponseContentPartAddedEvent

Generato quando viene aggiunta una nuova parte di contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero Indice della parte di contenuto aggiunta.
item_id Stringa ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index Intero Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Parte OpenAI.OutputContent
Tipo └* OpenAI.OutputContentType
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.content_part.added.
Valori possibili: response.content_part.added

OpenAI.ResponseCreatedEvent

Evento generato quando viene creata una risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore univoco per questa risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Tipo dell'evento. Sempre response.created.
Valori possibili: response.created

OpenAI.ResponseCustomToolCallInputDeltaEvent

Evento che rappresenta un delta (aggiornamento parziale) per l'input di una chiamata personalizzata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Dati di input incrementali (delta) per la chiamata allo strumento personalizzato.
item_id Stringa Identificatore univoco per l'elemento API associato a questo evento.
output_index Intero L'indice dell'output a cui si applica questo delta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Identificatore del tipo di evento.
Valori possibili: response.custom_tool_call_input.delta

OpenAI.ResponseError

Oggetto di errore restituito quando il modello non riesce a generare una risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice OpenAI.ResponseErrorCode Codice di errore per la risposta.
Messaggio Stringa Descrizione leggibile dell'errore.

OpenAI.ResponseErrorCode

Codice di errore per la risposta.

Proprietà Valore
Digitare Stringa
Valori server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Generato quando si verifica un errore.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
Messaggio Stringa Messaggio di errore.
Param stringa o null
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre error.
Valori possibili: error

OpenAI.ResponseFailedEvent

Evento generato quando una risposta ha esito negativo.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore univoco per questa risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.failed.
Valori possibili: response.failed

OpenAI.ResponseFileSearchCallInProgressEvent

Generato quando viene avviata una chiamata di ricerca file.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index Intero Indice dell'elemento di output avviato dalla chiamata di ricerca file.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.file_search_call.in_progress.
Valori possibili: response.file_search_call.in_progress

OpenAI.ResponseFileSearchCallSearchingEvent

Generato quando una ricerca di file è attualmente in corso di ricerca.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index Intero Indice dell'elemento di output in cui viene eseguita la ricerca della chiamata di ricerca file.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.file_search_call.searching.
Valori possibili: response.file_search_call.searching

OpenAI.ResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre json_object.
Valori possibili: json_object

OpenAI.ResponseFormatJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Nome Digitare Descrizione Obbligatorio Predefinito
json_schema OpenAI.ResponseFormatJsonSchemaJsonSchema
└* descrizione Stringa No
└> nome Stringa
Schema └* OpenAI.ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
Informazioni su come creare schemi JSON qui.
No
└* strict booleano o null No
digitare Enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ResponseFormatJsonSchemaJsonSchema

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Nome Stringa
Schema OpenAI.ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
Informazioni su come creare schemi JSON qui.
No
Rigorosa booleano o null No

OpenAI.ResponseFormatJsonSchemaSchema

Schema per il formato di risposta, descritto come oggetto Schema JSON. Informazioni su come creare schemi JSON qui.

Tipo: oggetto

OpenAI.ResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre text.
Valori possibili: text

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Generato quando è presente un delta degli argomenti di chiamata di funzione parziale.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Delta degli argomenti di chiamata di funzione aggiunto.
item_id Stringa ID dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
output_index Intero Indice dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.function_call_arguments.delta.
Valori possibili: response.function_call_arguments.delta

OpenAI.ResponseImageGenCallGeneratingEvent

Generato quando una chiamata dello strumento di generazione di immagini genera attivamente un'immagine (stato intermedio).

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Tipo dell'evento. Sempre "response.image_generation_call.generating".
Valori possibili: response.image_generation_call.generating

OpenAI.ResponseImageGenCallInProgressEvent

Generato quando è in corso una chiamata dello strumento di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Tipo dell'evento. Sempre 'response.image_generation_call.in_progress'.
Valori possibili: response.image_generation_call.in_progress

OpenAI.ResponseImageGenCallPartialImageEvent

Generato quando un'immagine parziale è disponibile durante il flusso di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
partial_image_b64 Stringa Dati parziali con codifica Base64, adatti per il rendering come immagine.
partial_image_index Intero Indice in base 0 per l'immagine parziale (il back-end è basato su 1, ma questo è basato su 0 per l'utente).
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Tipo dell'evento. Sempre 'response.image_generation_call.partial_image'.
Valori possibili: response.image_generation_call.partial_image

OpenAI.ResponseInProgressEvent

Generato quando la risposta è in corso.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore univoco per questa risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.in_progress.
Valori possibili: response.in_progress

OpenAI.ResponseIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: max_output_tokens, content_filter
No

OpenAI.ResponseIncompleteEvent

Evento generato al termine di una risposta come incompleto.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore univoco per questa risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.incomplete.
Valori possibili: response.incomplete

OpenAI.ResponseItemList

Elenco di elementi di risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ItemResource Elenco di elementi utilizzati per generare questa risposta.
first_id Stringa ID del primo elemento dell'elenco.
has_more Boolean Indica se sono disponibili altri elementi.
last_id Stringa ID dell'ultimo elemento nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

OpenAI.ResponseLogProb

Un logprob è la probabilità logaritmica assegnata dal modello alla produzione di un token specifico in una determinata posizione nella sequenza. I valori di logprob meno negativi (superiori) indicano maggiore attendibilità del modello in tale scelta di token.

Nome Digitare Descrizione Obbligatorio Predefinito
logprob Numero Probabilità del log di questo token.
Token Stringa Un possibile token di testo.
top_logprobs matrice di OpenAI.ResponseLogProbTopLogprobs Probabilità di log dei primi 20 token più probabili. No

OpenAI.ResponseLogProbTopLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
logprob Numero No
Token Stringa No

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Generato quando è presente un delta (aggiornamento parziale) agli argomenti di una chiamata allo strumento MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Stringa JSON contenente l'aggiornamento parziale agli argomenti per la chiamata allo strumento MCP.
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre "response.mcp_call_arguments.delta".
Valori possibili: response.mcp_call_arguments.delta

OpenAI.ResponseMCPCallFailedEvent

Generato quando una chiamata allo strumento MCP non è riuscita.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP non riuscito.
output_index Intero Indice dell'elemento di output non riuscito.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.mcp_call.failed'.
Valori possibili: response.mcp_call.failed

OpenAI.ResponseMCPCallInProgressEvent

Generato quando è in corso una chiamata allo strumento MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.mcp_call.in_progress'.
Valori possibili: response.mcp_call.in_progress

OpenAI.ResponseMCPListToolsFailedEvent

Generato quando il tentativo di elencare gli strumenti MCP disponibili non è riuscito.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP non riuscito.
output_index Intero Indice dell'elemento di output non riuscito.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.mcp_list_tools.failed'.
Valori possibili: response.mcp_list_tools.failed

OpenAI.ResponseMCPListToolsInProgressEvent

Generato quando il sistema è in corso di recupero dell'elenco degli strumenti MCP disponibili.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output da elaborare.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.mcp_list_tools.in_progress'.
Valori possibili: response.mcp_list_tools.in_progress

OpenAI.ResponseModalities

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita: ["text"] Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare: ["text", "audio"]

Questo schema accetta uno dei tipi seguenti:

  • Matrice
  • Null

OpenAI.ResponseOutputItemAddedEvent

Generato quando viene aggiunto un nuovo elemento di output.

Nome Digitare Descrizione Obbligatorio Predefinito
Elemento OpenAI.OutputItem
Tipo └* OpenAI.OutputItemType
output_index Intero Indice dell'elemento di output aggiunto.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.output_item.added.
Valori possibili: response.output_item.added

OpenAI.ResponseOutputTextAnnotationAddedEvent

Generato quando viene aggiunta un'annotazione al contenuto di testo di output.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazione OpenAI.Annotation Annotazione applicabile a un intervallo di testo di output.
Tipo └* OpenAI.AnnotationType
annotation_index Intero Indice dell'annotazione all'interno della parte del contenuto.
content_index Intero Indice della parte di contenuto all'interno dell'elemento di output.
item_id Stringa Identificatore univoco dell'elemento a cui viene aggiunta l'annotazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.output_text.annotation.added'.
Valori possibili: response.output_text.annotation.added

OpenAI.ResponsePromptVariables

Mapping facoltativo dei valori da sostituire con le variabili nel prompt. I valori di sostituzione possono essere stringhe o altri tipi di input response, ad esempio immagini o file.

Tipo: oggetto

OpenAI.ResponseQueuedEvent

Generato quando una risposta viene accodata e in attesa di essere elaborata.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore univoco per questa risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Matrice di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta di testo dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Tipo dell'evento. Sempre 'response.queued'.
Valori possibili: response.queued

OpenAI.ResponseReasoningSummaryPartAddedEvent

Generato quando viene aggiunta una nuova parte di riepilogo del ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa L'ID dell'elemento a cui è associata questa parte di riepilogo.
output_index Intero L'indice dell'elemento di output a cui è associata questa parte di riepilogo.
Parte OpenAI.ResponseReasoningSummaryPartAddedEventPart
└* testo Stringa
Tipo └* Enum
Valori possibili: summary_text
sequence_number Intero Numero di sequenza di questo evento.
summary_index Intero Indice della parte di riepilogo all'interno del riepilogo del ragionamento.
digitare Enum Tipo dell'evento. Sempre response.reasoning_summary_part.added.
Valori possibili: response.reasoning_summary_part.added

OpenAI.ResponseReasoningSummaryPartAddedEventPart

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa
digitare Enum
Valori possibili: summary_text

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Generato quando un delta viene aggiunto a un testo di riepilogo del ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Delta del testo aggiunto al riepilogo.
item_id Stringa L'ID dell'elemento a cui è associato questo delta del testo di riepilogo.
output_index Intero L'indice dell'elemento di output a cui è associato questo delta del testo di riepilogo.
sequence_number Intero Numero di sequenza di questo evento.
summary_index Intero Indice della parte di riepilogo all'interno del riepilogo del ragionamento.
digitare Enum Tipo dell'evento. Sempre response.reasoning_summary_text.delta.
Valori possibili: response.reasoning_summary_text.delta

OpenAI.ResponseReasoningTextDeltaEvent

Generato quando un delta viene aggiunto a un testo di ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero L'indice della parte del contenuto di ragionamento a cui è associato questo delta.
Delta Stringa Delta del testo aggiunto al contenuto del ragionamento.
item_id Stringa L'ID dell'elemento a cui è associato questo delta del testo di ragionamento.
output_index Intero L'indice dell'elemento di output a cui è associato questo delta del testo di ragionamento.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.reasoning_text.delta.
Valori possibili: response.reasoning_text.delta

OpenAI.ResponseRefusalDeltaEvent

Emesso quando è presente un testo di rifiuto parziale.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero Indice della parte contenuto a cui viene aggiunto il testo di rifiuto.
Delta Stringa Testo di rifiuto aggiunto.
item_id Stringa ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
output_index Intero Indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Tipo dell'evento. Sempre response.refusal.delta.
Valori possibili: response.refusal.delta

OpenAI.ResponseStreamOptions

Opzioni per le risposte in streaming. Impostare questa impostazione solo quando si imposta stream: true.

Nome Digitare Descrizione Obbligatorio Predefinito
include_obfuscation Boolean Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso
caratteri casuali in un obfuscation campo sugli eventi delta di streaming a
normalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale.
Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità
sovraccarico per il flusso di dati. È possibile impostare su include_obfuscation
false per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra
l'applicazione e l'API OpenAI.
No

OpenAI.ResponseTextDeltaEvent

Generato quando è presente un delta di testo aggiuntivo.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero Indice della parte di contenuto a cui è stato aggiunto il delta del testo.
Delta Stringa Delta del testo aggiunto.
item_id Stringa ID dell'elemento di output a cui è stato aggiunto il delta del testo.
logprobs matrice di OpenAI.ResponseLogProb Probabilità di log dei token nel delta.
output_index Intero Indice dell'elemento di output a cui è stato aggiunto il delta del testo.
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Tipo dell'evento. Sempre response.output_text.delta.
Valori possibili: response.output_text.delta

OpenAI.ResponseTextParam

Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Ulteriori informazioni:

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.
La configurazione { "type": "json_schema" } abilita output strutturati,
che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito non include { "type": "text" } opzioni aggiuntive.
*Non consigliato per i modelli gpt-4o e versioni successive:
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No
Dettaglio OpenAI.Verbosity Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno
risposte più concise, mentre valori più elevati generano risposte più dettagliate.
I valori attualmente supportati sono low, mediume high.
No

OpenAI.ResponseUsage

Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.

Nome Digitare Descrizione Obbligatorio Predefinito
input_tokens Intero Numero di token di input.
input_tokens_details OpenAI.ResponseUsageInputTokensDetails
└cached_tokens Intero
output_tokens Intero Numero di token di output.
output_tokens_details OpenAI.ResponseUsageOutputTokensDetails
└reasoning_tokens Intero
total_tokens Intero Numero totale di token usati.

OpenAI.ResponseUsageInputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero

OpenAI.ResponseUsageOutputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_tokens Intero

OpenAI.ResponseWebSearchCallInProgressEvent

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index Intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
sequence_number Intero Numero di sequenza della chiamata di ricerca Web in corso di elaborazione.
digitare Enum Tipo dell'evento. Sempre response.web_search_call.in_progress.
Valori possibili: response.web_search_call.in_progress

OpenAI.ResponseWebSearchCallSearchingEvent

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index Intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
sequence_number Intero Numero di sequenza della chiamata di ricerca Web in corso di elaborazione.
digitare Enum Tipo dell'evento. Sempre response.web_search_call.searching.
Valori possibili: response.web_search_call.searching

OpenAI.RunCompletionUsage

Statistiche di utilizzo correlate all'esecuzione. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, e queuedcosì via).

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di token di completamento usati durante l'esecuzione.
prompt_tokens Intero Numero di token di richiesta usati durante l'esecuzione.
total_tokens Intero Numero totale di token usati (prompt + completamento).

OpenAI.RunGraderRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione.
Elemento OpenAI.RunGraderRequestItem No
model_sample Stringa Esempio di modello da valutare. Questo valore verrà usato per popolare
spazio sample dei nomi. Per altri dettagli, vedere la guida .
La output_json variabile verrà popolata se l'esempio di modello è un
stringa JSON valida.

OpenAI.RunGraderRequestItem

Tipo: oggetto

OpenAI.RunGraderResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.RunGraderResponseMetadata
model_grader_token_usage_per_model Oggetto
Ricompensa Numero
sub_rewards Oggetto

OpenAI.RunGraderResponseMetadata

Nome Digitare Descrizione Obbligatorio Predefinito
Errori OpenAI.RunGraderResponseMetadataErrors
execution_time Numero
Nome Stringa
sampled_model_name stringa o null
Punteggi Oggetto
token_usage integer o null
digitare Stringa

OpenAI.RunGraderResponseMetadataErrors

Nome Digitare Descrizione Obbligatorio Predefinito
formula_parse_error Boolean
invalid_variable_error Boolean
model_grader_parse_error Boolean
model_grader_refusal_error Boolean
model_grader_server_error Boolean
model_grader_server_error_details stringa o null
other_error Boolean
python_grader_runtime_error Boolean
python_grader_runtime_error_details stringa o null
python_grader_server_error Boolean
python_grader_server_error_type stringa o null
sample_parse_error Boolean
truncated_observation_error Boolean
unresponsive_reward_error Boolean

OpenAI.RunObject

Rappresenta un'esecuzione eseguita in un thread.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente utilizzato per l'esecuzione di questa esecuzione.
cancelled_at stringa o null Timestamp Unix (in secondi) per il momento in cui l'esecuzione è stata annullata.
completed_at stringa o null Timestamp Unix (in secondi) per il completamento dell'esecuzione.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stata creata l'esecuzione.
expires_at stringa o null Timestamp Unix (in secondi) per quando l'esecuzione scadrà.
failed_at stringa o null Timestamp Unix (in secondi) per quando l'esecuzione non è riuscita.
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
incomplete_details OpenAI.RunObjectIncompleteDetails o null Dettagli sul motivo per cui l'esecuzione è incompleta. null Sarà se l'esecuzione non è incompleta.
Istruzioni Stringa Istruzioni usate dall'assistente per questa esecuzione.
last_error OpenAI.RunObjectLastError o null Ultimo errore associato a questa esecuzione. null Sarà se non sono presenti errori.
max_completion_tokens integer o null Numero massimo di token di completamento specificati per essere stati usati durante l'esecuzione.
max_prompt_tokens integer o null Numero massimo di token di richiesta specificati per essere stati usati durante l'esecuzione.
Metadati OpenAI.Metadata o Null
Modello Stringa Modello utilizzato dall'assistente per questa esecuzione.
Oggetto Enum Tipo di oggetto, che è sempre thread.run.
Valori possibili: thread.run
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
required_action OpenAI.RunObjectRequiredAction o null Dettagli sull'azione necessaria per continuare l'esecuzione. null Sarà se non è necessaria alcuna azione.
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
started_at stringa o null Timestamp Unix (in secondi) per l'avvio dell'esecuzione.
Stato OpenAI.RunStatus Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired.
Temperatura number o null Temperatura di campionamento utilizzata per questa esecuzione. Se non è impostato, il valore predefinito è 1. No
thread_id Stringa ID del thread eseguito in come parte di questa esecuzione.
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
Strumenti matrice di OpenAI.AssistantTool Elenco di strumenti usati dall'assistente per questa esecuzione. []
top_p number o null Valore di campionamento del nucleo utilizzato per questa esecuzione. Se non è impostato, il valore predefinito è 1. No
truncation_strategy OpenAI.TruncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.
Utilizzo OpenAI.RunCompletionUsage o Null

OpenAI.RunObjectIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: max_completion_tokens, max_prompt_tokens
No

OpenAI.RunObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, rate_limit_exceeded, invalid_prompt
Messaggio Stringa

OpenAI.RunObjectRequiredAction

Nome Digitare Descrizione Obbligatorio Predefinito
submit_tool_outputs OpenAI.RunObjectRequiredActionSubmitToolOutputs
digitare Enum
Valori possibili: submit_tool_outputs

OpenAI.RunObjectRequiredActionSubmitToolOutputs

Nome Digitare Descrizione Obbligatorio Predefinito
tool_calls matrice di OpenAI.RunToolCallObject

OpenAI.RunStatus

Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired.

Proprietà Valore
Digitare Stringa
Valori queued
in_progress
requires_action
cancelling
cancelled
failed
completed
incomplete
expired

OpenAI.RunStepCompletionUsage

Statistiche di utilizzo correlate al passaggio di esecuzione. Questo valore sarà null mentre lo stato del passaggio di esecuzione è in_progress.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di token di completamento usati nel corso del passaggio di esecuzione.
prompt_tokens Intero Numero di token di richiesta usati nel corso del passaggio di esecuzione.
total_tokens Intero Numero totale di token usati (prompt + completamento).

OpenAI.RunStepDetailsMessageCreationObject

Dettagli della creazione del messaggio tramite il passaggio di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
message_creation OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
digitare Enum Sempre message_creation.
Valori possibili: message_creation

OpenAI.RunStepDetailsMessageCreationObjectMessageCreation

Nome Digitare Descrizione Obbligatorio Predefinito
message_id Stringa

OpenAI.RunStepDetailsToolCall

Discriminare per OpenAI.RunStepDetailsToolCall

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObject
file_search OpenAI.RunStepDetailsToolCallsFileSearchObject
function OpenAI.RunStepDetailsToolCallsFunctionObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RunStepDetailsToolCallType

OpenAI.RunStepDetailsToolCallType

Proprietà Valore
Digitare Stringa
Valori code_interpreter
file_search
function

OpenAI.RunStepDetailsToolCallsCodeObject

I dettagli dello strumento Interprete del codice chiamano il passaggio di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
Input └* Stringa
└* output matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
Id Stringa ID della chiamata allo strumento.
digitare Enum Tipo di chiamata allo strumento. Questo sarà code_interpreter sempre per questo tipo di chiamata allo strumento.
Valori possibili: code_interpreter

OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa
Uscite matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

Nome Digitare Descrizione Obbligatorio Predefinito
Immagine OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
digitare Enum Sempre image.
Valori possibili: image

OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dello strumento Interprete codice viene chiamato come parte di un passaggio di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
Registri Stringa Output di testo dalla chiamata dello strumento Interprete del codice.
digitare Enum Sempre logs.
Valori possibili: logs

OpenAI.RunStepDetailsToolCallsFileSearchObject

Nome Digitare Descrizione Obbligatorio Predefinito
file_search OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
└ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Opzioni di classificazione per la ricerca di file. No
└* risultati matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject No
Id Stringa ID dell'oggetto chiamata dello strumento.
digitare Enum Tipo di chiamata allo strumento. Questo sarà file_search sempre per questo tipo di chiamata allo strumento.
Valori possibili: file_search

OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Opzioni di classificazione per la ricerca di file. No
Risultati matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject No

OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject

Opzioni di classificazione per la ricerca di file.

Nome Digitare Descrizione Obbligatorio Predefinito
ranker OpenAI.FileSearchRanker Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker.
score_threshold Numero Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.RunStepDetailsToolCallsFileSearchResultObject

Istanza del risultato della ricerca di file.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent Contenuto del risultato trovato. Il contenuto viene incluso solo se richiesto tramite il parametro di query di inclusione. No
File_id Stringa ID del file in cui è stato trovato il risultato.
file_name Stringa Nome del file in cui è stato trovato il risultato.
Punteggio Numero Punteggio del risultato. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa No
digitare Enum
Valori possibili: text
No

OpenAI.RunStepDetailsToolCallsFunctionObject

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
Argomenti └* Stringa
└> nome Stringa
└* output stringa o null
Id Stringa ID dell'oggetto chiamata dello strumento.
digitare Enum Tipo di chiamata allo strumento. Questo sarà function sempre per questo tipo di chiamata allo strumento.
Valori possibili: function

OpenAI.RunStepDetailsToolCallsFunctionObjectFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa
Output stringa o null

OpenAI.RunStepDetailsToolCallsObject

Dettagli della chiamata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
tool_calls matrice di OpenAI.RunStepDetailsToolCall Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpreter, file_searcho function.
digitare Enum Sempre tool_calls.
Valori possibili: tool_calls

OpenAI.RunStepObject

Rappresenta un passaggio in esecuzione di un'esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente associato al passaggio di esecuzione.
cancelled_at stringa o null
completed_at stringa o null
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il passaggio di esecuzione.
expired_at stringa o null
failed_at stringa o null
Id Stringa Identificatore del passaggio di esecuzione, a cui è possibile fare riferimento negli endpoint API.
last_error OpenAI.RunStepObjectLastError o null
Metadati OpenAI.Metadata o Null
Oggetto Enum Tipo di oggetto, che è sempre thread.run.step.
Valori possibili: thread.run.step
run_id Stringa ID dell'esecuzione di cui fa parte questo passaggio di esecuzione.
Stato Enum Stato del passaggio di esecuzione, che può essere in_progress, , cancelledfailed, completedo expired.
Valori possibili: in_progress, cancelledfailed, , completed,expired
step_details OpenAI.RunStepDetailsMessageCreationObject o OpenAI.RunStepDetailsToolCallsObject Dettagli del passaggio di esecuzione.
thread_id Stringa ID del thread eseguito.
digitare Enum Tipo di passaggio di esecuzione, che può essere message_creation o tool_calls.
Valori possibili: message_creation, tool_calls
Utilizzo OpenAI.RunStepCompletionUsage Statistiche di utilizzo correlate al passaggio di esecuzione. Questo valore sarà null mentre lo stato del passaggio di esecuzione è in_progress.

OpenAI.RunStepObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, rate_limit_exceeded
Messaggio Stringa

OpenAI.RunToolCallObject

Oggetti chiamata dello strumento

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.RunToolCallObjectFunction
Argomenti └* Stringa
└> nome Stringa
Id Stringa ID della chiamata allo strumento. Questo ID deve essere fatto riferimento quando si inviano gli output dello strumento in usando gli output dello strumento Invia per eseguire l'endpoint.
digitare Enum Per il tipo di strumento chiamare l'output è necessario. Per il momento, questo è sempre function.
Valori possibili: function

OpenAI.RunToolCallObjectFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.Screenshot

Azione screenshot.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è
sempre impostato su screenshot.
Valori possibili: screenshot

OpenAI.Scroll

Azione di scorrimento.

Nome Digitare Descrizione Obbligatorio Predefinito
scroll_x Intero Distanza di scorrimento orizzontale.
scroll_y Intero Distanza di scorrimento verticale.
digitare Enum Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è
sempre impostato su scroll.
Valori possibili: scroll
X Intero Coordinata x in cui si è verificato lo scorrimento.
Y Intero Coordinata y in cui si è verificato lo scorrimento.

OpenAI.SearchContextSize

Proprietà Valore
Digitare Stringa
Valori low
medium
high

OpenAI.SpecificApplyPatchParam

Forza il modello a chiamare lo strumento apply_patch durante l'esecuzione di una chiamata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Strumento da chiamare. Sempre apply_patch.
Valori possibili: apply_patch

OpenAI.SpecificFunctionShellParam

Forza il modello a chiamare lo strumento shell quando è necessaria una chiamata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Strumento da chiamare. Sempre shell.
Valori possibili: shell

OpenAI.StaticChunkingStrategy

Nome Digitare Descrizione Obbligatorio Predefinito
chunk_overlap_tokens Intero Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400.
Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
max_chunk_size_tokens Intero Numero massimo di token in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096.
Vincoli: min: 100, max: 4096

OpenAI.StaticChunkingStrategyRequestParam

Personalizzare la strategia di suddivisione in blocchi impostando le dimensioni dei blocchi e la sovrapposizione dei blocchi.

Nome Digitare Descrizione Obbligatorio Predefinito
Statico OpenAI.StaticChunkingStrategy
digitare Enum Sempre static.
Valori possibili: static

OpenAI.StaticChunkingStrategyResponseParam

Nome Digitare Descrizione Obbligatorio Predefinito
Statico OpenAI.StaticChunkingStrategy
digitare Enum Sempre static.
Valori possibili: static

OpenAI.StopConfiguration

Non supportato con i modelli o3 di ragionamento più recenti e o4-mini. Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.

Questo schema accetta uno dei tipi seguenti:

  • Matrice
  • Null

OpenAI.SubmitToolOutputsRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Flusso booleano o null No
tool_outputs matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs Elenco di strumenti per i quali vengono inviati gli output.

OpenAI.SubmitToolOutputsRunRequestToolOutputs

Nome Digitare Descrizione Obbligatorio Predefinito
Output Stringa No
tool_call_id Stringa No

OpenAI.Summary

Testo di riepilogo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Riepilogo dell'output di ragionamento del modello finora.
digitare Enum Tipo dell'oggetto. Sempre summary_text.
Valori possibili: summary_text

OpenAI.SummaryTextContent

Testo di riepilogo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Riepilogo dell'output di ragionamento del modello finora.
digitare Enum Tipo dell'oggetto. Sempre summary_text.
Valori possibili: summary_text

OpenAI.TextAnnotation

Discriminare per OpenAI.TextAnnotation

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObject
file_path OpenAI.MessageContentTextAnnotationsFilePathObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.TextAnnotationType

OpenAI.TextAnnotationType

Proprietà Valore
Digitare Stringa
Valori file_citation
file_path

OpenAI.TextContent

Contenuto di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa
digitare Enum
Valori possibili: text

OpenAI.TextResponseFormatConfiguration

Oggetto che specifica il formato che il modello deve restituire. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito non include { "type": "text" } opzioni aggiuntive. Non consigliato per gpt-4o e modelli più recenti:* Impostazione per { "type": "json_object" } abilitare la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.

Discriminare per OpenAI.TextResponseFormatConfiguration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
json_schema OpenAI.TextResponseFormatJsonSchema
text OpenAI.TextResponseFormatConfigurationResponseFormatText
json_object OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.TextResponseFormatConfigurationType

OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre json_object.
Valori possibili: json_object

OpenAI.TextResponseFormatConfigurationResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di formato di risposta definito. Sempre text.
Valori possibili: text

OpenAI.TextResponseFormatConfigurationType

Proprietà Valore
Digitare Stringa
Valori text
json_schema
json_object

OpenAI.TextResponseFormatJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione del formato di risposta, usato dal modello per
determinare come rispondere nel formato.
No
Nome Stringa Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere
caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
Schema OpenAI.ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
Informazioni su come creare schemi JSON qui.
Rigorosa booleano o null No
digitare Enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ThreadObject

Rappresenta un thread che contiene messaggi.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il thread.
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
Metadati OpenAI.Metadata o Null
Oggetto Enum Tipo di oggetto, che è sempre thread.
Valori possibili: thread
tool_resources OpenAI.ThreadObjectToolResources o null

OpenAI.ThreadObjectToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.ThreadObjectToolResourcesCodeInterpreter No
file_search OpenAI.ThreadObjectToolResourcesFileSearch No

OpenAI.ThreadObjectToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.ThreadObjectToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.TokenLimits

Nome Digitare Descrizione Obbligatorio Predefinito
post_instructions Intero Vincoli: min: 0 No

OpenAI.Tool

Strumento che può essere usato per generare una risposta.

Discriminare per OpenAI.Tool

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
code_interpreter OpenAI.CodeInterpreterTool
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search OpenAI.WebSearchTool
mcp OpenAI.MCPTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellToolParam
shell OpenAI.FunctionShellToolParam
custom OpenAI.CustomToolParam
web_search_preview OpenAI.WebSearchPreviewTool
apply_patch OpenAI.ApplyPatchToolParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ToolType

OpenAI.ToolChoiceAllowed

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
Modalità Enum Vincola gli strumenti disponibili al modello a un set predefinito.
auto consente al modello di scegliere tra gli strumenti consentiti e generare un
Messaggio.
required richiede al modello di chiamare uno o più degli strumenti consentiti.
Valori possibili: auto, required
Strumenti matrice di oggetti Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare.
Per l'API Risposte, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente:
json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br>
digitare Enum Tipo di configurazione dello strumento consentito. Sempre allowed_tools.
Valori possibili: allowed_tools

OpenAI.ToolChoiceCodeInterpreter

Indica che il modello deve usare uno strumento predefinito per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: code_interpreter

OpenAI.ToolChoiceComputerUsePreview

Indica che il modello deve usare uno strumento predefinito per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: computer_use_preview

OpenAI.ToolChoiceCustom

Usare questa opzione per forzare il modello a chiamare uno strumento personalizzato specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Nome dello strumento personalizzato da chiamare.
digitare Enum Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.
Valori possibili: custom

OpenAI.ToolChoiceFileSearch

Indica che il modello deve usare uno strumento predefinito per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: file_search

OpenAI.ToolChoiceFunction

Usare questa opzione per forzare il modello a chiamare una funzione specifica.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Nome della funzione da chiamare.
digitare Enum Per la chiamata di funzione, il tipo è sempre function.
Valori possibili: function

OpenAI.ToolChoiceImageGeneration

Indica che il modello deve usare uno strumento predefinito per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: image_generation

OpenAI.ToolChoiceMCP

Usare questa opzione per forzare il modello a chiamare uno strumento specifico in un server MCP remoto.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome stringa o null No
server_label Stringa Etichetta del server MCP da usare.
digitare Enum Per gli strumenti MCP, il tipo è sempre mcp.
Valori possibili: mcp

OpenAI.ToolChoiceOptions

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti.

Proprietà Valore
Digitare Stringa
Valori none
auto
required

OpenAI.ToolChoiceParam

Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.

Discriminante per OpenAI.ToolChoiceParam

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore del tipo Schema
allowed_tools OpenAI.ToolChoiceAllowed
mcp OpenAI.ToolChoiceMCP
custom OpenAI.ToolChoiceCustom
apply_patch OpenAI.SpecificApplyPatchParam
shell OpenAI.SpecificFunctionShellParam
file_search OpenAI.ToolChoiceFileSearch
web_search_preview OpenAI.ToolChoiceWebSearchPreview
computer_use_preview OpenAI.ToolChoiceComputerUsePreview
web_search_preview_2025_03_11 OpenAI.ToolChoiceWebSearchPreview20250311
image_generation OpenAI.ToolChoiceImageGeneration
code_interpreter OpenAI.ToolChoiceCodeInterpreter
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ToolChoiceParamType

OpenAI.ToolChoiceParamType

Proprietà Valore
Digitare Stringa
Valori allowed_tools
function
mcp
custom
apply_patch
shell
file_search
web_search_preview
computer_use_preview
web_search_preview_2025_03_11
image_generation
code_interpreter

OpenAI.ToolChoiceWebSearchPreview

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: web_search_preview

OpenAI.ToolChoiceWebSearchPreview20250311

Indica che il modello deve usare uno strumento predefinito per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: web_search_preview_2025_03_11

OpenAI.ToolType

Proprietà Valore
Digitare Stringa
Valori function
file_search
computer_use_preview
web_search
mcp
code_interpreter
image_generation
local_shell
shell
custom
web_search_preview
apply_patch

OpenAI.ToolsArray

Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro . Sono supportate le categorie di strumenti seguenti:

  • Strumenti predefiniti: strumenti forniti da OpenAI che estendono le funzionalità del modello, ad esempio la ricerca Web o la ricerca di file. Altre informazioni sugli strumenti predefiniti.
  • Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni sugli strumenti MCP.
  • Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, consentendo al modello di chiamare il proprio codice con argomenti e output fortemente tipizzato. Altre informazioni sulla chiamata alle funzioni. È anche possibile usare strumenti personalizzati per chiamare il proprio codice.

Matrice di: OpenAI.Tool

OpenAI.TopLogProb

Probabilità di log principale di un token.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi
logprob Numero
Token Stringa

OpenAI.TranscriptionSegment

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Logprob medio del segmento. Se il valore è inferiore a -1, considerare che i logprobs non sono riusciti.
compression_ratio Numero Rapporto di compressione del segmento. Se il valore è maggiore di 2,4, prendere in considerazione l'errore di compressione.
Fine Numero Ora di fine del segmento in secondi.
Id Intero Identificatore univoco del segmento.
no_speech_prob Numero Probabilità di nessun parlato nel segmento. Se il valore è superiore a 1,0 e è inferiore a -1, prendere in considerazione questo segmento invisibile all'utente avg_logprob .
Cercare Intero Offset di ricerca del segmento.
Iniziare Numero Ora di inizio del segmento in secondi.
Temperatura Numero Parametro Temperature usato per generare il segmento.
Testo Stringa Contenuto di testo del segmento.
Token matrice di numeri interi Matrice di ID token per il contenuto di testo.

OpenAI.TranscriptionWord

Nome Digitare Descrizione Obbligatorio Predefinito
Fine Numero Ora di fine della parola in secondi.
Iniziare Numero Ora di inizio della parola in secondi.
Parola Stringa Contenuto di testo della parola.

OpenAI.TruncationObject

Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
last_messages integer o null No
digitare Enum Strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Se impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza del contesto del modello, max_prompt_tokens.
Valori possibili: auto, last_messages

OpenAI.Type

Azione da digitare nel testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Testo da digitare.
digitare Enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è
sempre impostato su type.
Valori possibili: type

OpenAI.UpdateConversationBody

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.
Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

OpenAI.UpdateVectorStoreFileAttributesRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null

OpenAI.UpdateVectorStoreRequest

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.VectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
Metadati OpenAI.Metadata o Null No
Nome stringa o null Nome dell'archivio vettoriale. No

OpenAI.UrlCitationBody

Citazione per una risorsa Web usata per generare una risposta del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero Indice dell'ultimo carattere della citazione URL nel messaggio.
start_index Intero Indice del primo carattere della citazione URL nel messaggio.
Titolo Stringa Titolo della risorsa Web.
digitare Enum Tipo di citazione URL. Sempre url_citation.
Valori possibili: url_citation
Url Stringa URL della risorsa Web.

OpenAI.ValidateGraderResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione. No

OpenAI.VectorStoreExpirationAfter

Criteri di scadenza per un archivio vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at.
Valori possibili: last_active_at
Giorni Intero Numero di giorni dopo l'ora di ancoraggio che l'archivio vettoriale scadrà.
Vincoli: min: 1, max: 365

OpenAI.VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

Tipo: oggetto

OpenAI.VectorStoreFileBatchObject

Batch di file collegati a un archivio vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il batch dei file dell'archivio vettoriale.
file_counts OpenAI.VectorStoreFileBatchObjectFileCounts
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre vector_store.file_batch.
Valori possibili: vector_store.files_batch
Stato Enum Stato del batch di file dell'archivio vettoriale, che può essere in_progress, completedcancelledo failed.
Valori possibili: in_progress, completed, cancelled, failed
vector_store_id Stringa ID dell'archivio vettoriale a cui è associato il file .

OpenAI.VectorStoreFileBatchObjectFileCounts

Nome Digitare Descrizione Obbligatorio Predefinito
annullato Intero
Completato Intero
Fallito Intero
in_progress Intero
Totale Intero

OpenAI.VectorStoreFileObject

Elenco di file collegati a un archivio vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyResponse Strategia usata per suddividere il file. No
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il file dell'archivio vettoriale.
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
last_error OpenAI.VectorStoreFileObjectLastError o null
Oggetto Enum Tipo di oggetto, che è sempre vector_store.file.
Valori possibili: vector_store.file
Stato Enum Stato del file dell'archivio vettoriale, che può essere in_progress, completed, cancelledo failed. Lo stato completed indica che il file dell'archivio vettoriale è pronto per l'uso.
Valori possibili: in_progress, completed, cancelled, failed
usage_bytes Intero Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale.
vector_store_id Stringa ID dell'archivio vettoriale a cui è associato il file .

OpenAI.VectorStoreFileObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, unsupported_file, invalid_file
Messaggio Stringa

OpenAI.VectorStoreObject

Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo file_search strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato l'archivio vettoriale.
expires_after OpenAI.VectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
expires_at stringa o null No
file_counts OpenAI.VectorStoreObjectFileCounts
Id Stringa Identificatore a cui è possibile fare riferimento negli endpoint API.
last_active_at stringa o null
Metadati OpenAI.Metadata o Null
Nome Stringa Nome dell'archivio vettoriale.
Oggetto Enum Tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
Stato Enum Stato dell'archivio vettoriale, che può essere expired, in_progresso completed. Lo stato completed indica che l'archivio vettoriale è pronto per l'uso.
Valori possibili: expired, in_progress, completed
usage_bytes Intero Numero totale di byte utilizzati dai file nell'archivio vettoriale.

OpenAI.VectorStoreObjectFileCounts

Nome Digitare Descrizione Obbligatorio Predefinito
annullato Intero
Completato Intero
Fallito Intero
in_progress Intero
Totale Intero

OpenAI.VectorStoreSearchRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.ComparisonFilter o OpenAI.CompoundFilter Filtro da applicare in base agli attributi del file. No
max_num_results Intero Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi.
Vincoli: min: 1, max: 50
No 10
Query stringa o matrice di stringhe Stringa di query per una ricerca
ranking_options OpenAI.VectorStoreSearchRequestRankingOptions No
└* ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
└score_threshold Numero Vincoli: min: 0, max: 1 No
rewrite_query Boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No

OpenAI.VectorStoreSearchRequestRankingOptions

Nome Digitare Descrizione Obbligatorio Predefinito
ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
score_threshold Numero Vincoli: min: 0, max: 1 No

OpenAI.VectorStoreSearchResultContentObject

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo restituito dalla ricerca.
digitare Enum Tipo di contenuto.
Valori possibili: text

OpenAI.VectorStoreSearchResultItem

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null
Contenuto matrice di OpenAI.VectorStoreSearchResultContentObject Blocchi di contenuto dal file.
File_id Stringa ID del file dell'archivio vettoriale.
Filename Stringa Nome del file dell'archivio vettoriale.
Punteggio Numero Punteggio di somiglianza per il risultato.
Vincoli: min: 0, max: 1

OpenAI.VectorStoreSearchResultsPage

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreSearchResultItem Elenco di elementi dei risultati della ricerca.
has_more Boolean Indica se sono presenti più risultati da recuperare.
next_page stringa o null
Oggetto Enum Tipo di oggetto, che è sempre vector_store.search_results.page
Valori possibili: vector_store.search_results.page
search_query matrice di stringhe

OpenAI.Verbosity

Vincola il livello di dettaglio della risposta del modello. I valori inferiori generano risposte più concise, mentre i valori più elevati generano risposte più dettagliate. I valori attualmente supportati sono low, mediume high.

Proprietà Valore
Digitare Stringa
Valori low
medium
high

OpenAI.VoiceIdsShared

Proprietà Valore
Digitare Stringa
Valori alloy
ash
ballad
coral
echo
sage
shimmer
verse
marin
cedar

OpenAI.Wait

Azione di attesa.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è
sempre impostato su wait.
Valori possibili: wait

OpenAI.WebSearchActionFind

Tipo di azione "find": cerca un criterio all'interno di una pagina caricata.

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa Modello o testo da cercare all'interno della pagina.
digitare Enum Tipo di azione.
Valori possibili: find_in_page
Url Stringa URL della pagina in cui è stato cercato il modello.

OpenAI.WebSearchActionOpenPage

Tipo di azione "open_page" - Apre un URL specifico dai risultati della ricerca.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di azione.
Valori possibili: open_page
Url Stringa URL aperto dal modello.

OpenAI.WebSearchActionSearch

Tipo di azione "search" - Esegue una query di ricerca Web.

Nome Digitare Descrizione Obbligatorio Predefinito
Query matrice di stringhe Query di ricerca. No
Query stringa (deprecata) [DEPRECATO] Query di ricerca.
Fonti matrice di OpenAI.WebSearchActionSearchSources Origini utilizzate nella ricerca. No
digitare Enum Tipo di azione.
Valori possibili: search

OpenAI.WebSearchActionSearchSources

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: url
Url Stringa

OpenAI.WebSearchApproximateLocation

Posizione approssimativa dell'utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Città stringa o null No
Paese stringa o null No
Regione stringa o null No
Fuso orario stringa o null No
digitare Enum Tipo di approssimazione della posizione. Sempre approximate.
Valori possibili: approximate
No

OpenAI.WebSearchPreviewTool

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
search_context_size OpenAI.SearchContextSize No
digitare Enum Tipo dello strumento di ricerca Web. Uno di web_search_preview o web_search_preview_2025_03_11.
Valori possibili: web_search_preview
user_location OpenAI.ApproximateLocation o null No

OpenAI.WebSearchTool

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.WebSearchToolFilters o null No
search_context_size Enum Linee guida generali per la quantità di spazio della finestra di contesto da usare per la ricerca. Uno di low, mediumo high. medium è l'impostazione predefinita.
Valori possibili: low, medium, high
No
digitare Enum Tipo dello strumento di ricerca Web. Uno di web_search o web_search_2025_08_26.
Valori possibili: web_search
user_location OpenAI.WebSearchApproximateLocation o null No

OpenAI.WebSearchToolFilters

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_domains matrice di stringhe o null No

Ordine

Proprietà Valore
Digitare Stringa
Valori asc
desc

ResponseFormatJSONSchemaRequest

Nome Digitare Descrizione Obbligatorio Predefinito
json_schema Oggetto Schema JSON per il formato di risposta
digitare Enum Tipo di formato di risposta
Valori possibili: json_schema

SpeechGenerationResponse

Rappresentazione di una risposta per un'operazione di sintesi vocale.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio Stringa Audio generato, generato nel formato di output audio richiesto.

SpeechGenerationResponseFormat

Formati di output audio supportati per la sintesi vocale.

Questo componente può essere uno dei seguenti:

  • Stringa
  • string: mp3, opus, aac, flac, wavpcm

SpeechVoice

Voci disponibili per la sintesi vocale.

Proprietà Valore
Descrizione Voci disponibili per la sintesi vocale.
Digitare Stringa
Valori alloy
echo
fable
onyx
nova
shimmer

VideoContent

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa

VideoContentVariant

Varianti di asset selezionabili per il contenuto scaricato.

Proprietà Valore
Descrizione Varianti di asset selezionabili per il contenuto scaricato.
Digitare Stringa
Valori video
thumbnail
spritesheet

VideoIdParameter

Nome Digitare Descrizione Obbligatorio Predefinito
video-id Stringa ID del video da usare per la richiesta OpenAI di Azure.

VideoList

Elenco dei processi di generazione di video.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di VideoResource Elenco dei processi di generazione di video.
first_id Stringa ID del primo video nella pagina corrente, se disponibile. No
has_more Boolean Flag che indica se sono disponibili più processi dopo l'elenco.
last_id Stringa ID dell'ultimo video nella pagina corrente, se disponibile. No
Oggetto Enum
Valori possibili: list

VideoResource

Informazioni strutturate che descrivono un processo video generato.

Nome Digitare Descrizione Obbligatorio Predefinito
completed_at Intero Timestamp Unix (secondi) per il completamento del processo, se completato. No
created_at Intero Timestamp Unix (secondi) per il momento in cui è stato creato il processo.
Errore Errore No
Codice └++ Stringa
└* messaggio Stringa
expires_at Intero Timestamp Unix (secondi) per la scadenza della generazione di video (e verrà eliminato). No
Id Stringa Identificatore univoco per il processo video.
Modello Stringa Distribuzione del modello di generazione video che ha prodotto il processo.
Oggetto Stringa Tipo di oggetto, che è sempre video.
Progresso Intero Percentuale di completamento approssimativa per l'attività di generazione.
remixed_from_video_id Stringa Identificatore del video di origine se questo video è un remix. No
Secondi VideoSecondi Durate di clip supportate, misurate in secondi.
Dimensione VideoSize Dimensioni di output formattate come {width}x{height}.
Stato VideoStatus Stato del ciclo di vita di un video generato.

VideoSecondi

Durate di clip supportate, misurate in secondi.

Proprietà Valore
Descrizione Durate di clip supportate, misurate in secondi.
Digitare Stringa
Valori 4
8
12

VideoSize

Dimensioni di output formattate come {width}x{height}.

Proprietà Valore
Descrizione Dimensioni di output formattate come {width}x{height}.
Digitare Stringa
Valori 720x1280
1280x720
1024x1792
1792x1024

VideoStatus

Stato del ciclo di vita di un video generato.

Proprietà Valore
Descrizione Stato del ciclo di vita di un video generato.
Digitare Stringa
Valori queued
in_progress
completed
failed