Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per Azure OpenAI.
API specs
La gestione e l'interazione con i modelli e le risorse OpenAI Azure sono suddivise in tre aree API principali:
- Control plane
- Piano dati - Creazione
- Piano dati - Inferenza
Ogni superficie/specifica DELL'API incapsula un set diverso di Azure funzionalità OpenAI. Ogni API ha un proprio set univoco di versioni api di anteprima e stabile/disponibile a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.
Important
È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.
| API | Versione di anteprima più recente | Versione disponibile a livello generale più recente | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L'API del piano di controllo viene usata per operazioni come la creazione di risorse, la distribuzione del modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo controlla anche ciò che è possibile fare con funzionalità come Azure Resource Manager, Bicep, Terraform e interfaccia della riga di comando di Azure. |
| Data plane | v1 preview |
v1 |
Spec files | L'API del piano dati controlla le operazioni di inferenza e creazione. |
Authentication
Azure OpenAI fornisce due metodi per l'autenticazione. È possibile usare chiavi API o Microsoft Entra ID.
Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione
api-keyHTTP. La guida introduttiva fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Microsoft Entra ID authentication: è possibile autenticare una chiamata API usando un token di Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come
Authorizationintestazione. Il token fornito deve essere preceduto daBearer, ad esempioBearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica su autenticazione con Microsoft Entra ID.
Controllo delle versioni dell'API REST
Le API del servizio vengono versionate usando il api-version parametro di query. Tutte le versioni seguono la struttura della data AAAA-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo illustra la versione ga della specifica di inferenza del piano dati OpenAI Azure, 2024-10-21.
Se si sta cercando la documentazione sulla versione più recente dell'API di anteprima, vedere l'API di inferenza del piano dati di anteprima più recente
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID distribuzione del modello distribuito. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | stringa o matrice | Prompt/i per cui generare completamenti, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token. Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello verrà generato come se dall'inizio di un nuovo documento. |
Yes | |
| best_of | integer | Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire" best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripetere la richiesta oltre al completamento |
No | False |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> . |
No | None |
| logprobs | integer | Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Numero massimo di token che possono essere generati al completamento. Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
| n | integer | Numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| seed | integer | Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
No | |
| stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat). |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da modelli e algoritmi di Machine Learning.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | stringa o matrice | Testo di input da incorporare, codificato come stringa o matrice di token. Per incorporare più input in una singola richiesta, passare una matrice di stringhe o una matrice di matrici di token. L'input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni inferiori o inferiori a 2.048. |
Yes | |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No | |
| input_type | string | tipo di input della ricerca di incorporamento da usare | No | |
| encoding_format | string | Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. |
No | |
| dimensions | integer | Numero di dimensioni che devono essere presenti gli incorporamenti di output risultanti. Supportato solo nei text-embedding-3 modelli e versioni successive. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Proprietà per l'utilizzo
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Restituisce gli incorporamenti per un determinato prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Crea un completamento per il messaggio di chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID distribuzione del modello distribuito. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta dei messaggi parziali, ad esempio in ChatGPT. I token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. |
No | |
| max_tokens | integer | Numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No | |
| messages | array | Elenco di messaggi che comprendono la conversazione finora. | Yes | |
| data_sources | array | Voci di configurazione per Azure estensioni di chat OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
No | False |
| top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Si noti che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| tools | array | Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti. |
No | |
| function_call | string o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla la funzione (se presente) chiamata dal modello. none indica che il modello non chiamerà una funzione e genera invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco di funzioni per cui il modello può generare input JSON. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati di ricerca Azure e sull'identità gestita assegnata dal sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati del vettore di ricerca Azure, sul messaggio dell'assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per il Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Creazione
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Trascrive l'audio nella lingua di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID distribuzione del modello di riconoscimento vocale. Per informazioni sui modelli supportati, vedere [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Oggetto file audio da trascrivere. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello userà la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
| language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 migliorerà l'accuratezza e la latenza. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt). |
Examples
Example
Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Trascrive e converte l'audio di input in testo inglese.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID distribuzione del modello sussurro distribuito. Per informazioni sui modelli supportati, vedere [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | File audio da tradurre. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello userà la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt). |
Examples
Example
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genera un batch di immagini da una didascalia di testo in una determinata distribuzione del modello dall-e
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Azure endpoint OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il Azure nome della risorsa OpenAI. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID distribuzione del modello dall-e distribuito. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Specificare Azure chiave API OpenAI qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4.000 caratteri. | Yes | |
| n | integer | Numero di immagini da generare. | No | 1 |
| size | imageSize | Dimensioni delle immagini generate. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | url |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No | |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | standard |
| style | imageStyle | Stile delle immagini generate. | No | vivid |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: impostazione predefinita
Descrizione: si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea immagini in base a un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Errore interno con dettagli aggiuntivi. | No |
innerError
Errore interno con dettagli aggiuntivi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No |
innerErrorCode
Codici di errore per l'oggetto errore interno.
Descrizione: codici di errore per l'oggetto errore interno.
Type: string
Default:
Nome enumerazione: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | La richiesta ha violato una delle altre regole di filtro del contenuto. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Errore interno con dettagli aggiuntivi. | No |
dalleInnerError
Errore interno con dettagli aggiuntivi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
| content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No | |
| revised_prompt | string | Richiesta usata per generare l'immagine, se è presente una revisione al prompt. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Proprietà per la citazione
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Informazioni sui risultati del filtro del contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se sono state rilevate e se sono state filtrate o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Risultati del filtro del contenuto per una singola richiesta nella richiesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No |
promptFilterResults
Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtro del contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta dei messaggi parziali, ad esempio in ChatGPT. I token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. | No | |
| max_tokens | integer | Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Questo valore è ora deprecato a favore di max_completion_tokense non è compatibile con i modelli di serie o1. |
No | 4096 |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. | No | 0 |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. | No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dall'ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. | No | |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di Azure OpenAI per monitorare e rilevare abusi. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | stringa o matrice | Prompt/i per cui generare completamenti, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token. Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello verrà generato come se dall'inizio di un nuovo documento. |
Yes | |
| best_of | integer | Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire" best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripetere la richiesta oltre al completamento |
No | False |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> . |
No | None |
| logprobs | integer | Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Numero massimo di token che possono essere generati al completamento. Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
| n | integer | Numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| seed | integer | Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
No | |
| stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No |
createCompletionResponse
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento. | Yes | |
| choices | array | Elenco delle scelte di completamento del modello generato per il prompt di input. | Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento. | Yes | |
| model | string | Modello utilizzato per il completamento. | Yes | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. | No | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
| object | enum | Tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Yes | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta dei messaggi parziali, ad esempio in ChatGPT. I token verranno inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. |
No | |
| max_tokens | integer | Numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No | |
| messages | array | Elenco di messaggi che comprendono la conversazione finora. | Yes | |
| data_sources | array | Voci di configurazione per Azure estensioni di chat OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
No | False |
| top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Si noti che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| tools | array | Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti. |
No | |
| function_call | string o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla la funzione (se presente) chiamata dal modello. none indica che il modello non chiamerà una funzione e genera invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco di funzioni per cui il modello può generare input JSON. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
| name | string | Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione parameters definisce una funzione con un elenco di parametri vuoto. |
No |
chatCompletionFunctionCallOption
Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nome della funzione da chiamare. | Yes |
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio di sistema. | Yes | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: sistema |
Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio utente. |
Yes | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: utente |
Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls non sia specificato o function_call . |
No | |
| refusal | string | Messaggio di rifiuto dell'assistente. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso assistant.Valori possibili: assistente |
Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No | |
| tool_calls | chatCompletionMessageToolCalls | Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. | No | |
| function_call | object | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No |
Proprietà per function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome della funzione da chiamare. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: strumento |
Yes | |
| content | stringa o matrice | Contenuto del messaggio dello strumento. | Yes | |
| tool_call_id | string | Chiamare lo strumento a cui risponde questo messaggio. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
Yes | |
| content | string | Contenuto del messaggio della funzione. | Yes | |
| name | string | Nome della funzione da chiamare. | Yes |
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo della parte di contenuto. Valori possibili: testo |
Yes | |
| text | string | Contenuto di testo. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo della parte di contenuto. Valori possibili: image_url |
Yes | |
| image_url | object | Yes |
Proprietà per image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | URL dell'immagine o dei dati dell'immagine con codifica base64. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo della parte di contenuto. Valori possibili: rifiuto |
Yes | |
| refusal | string | Messaggio di rifiuto generato dal modello. | Yes |
azureChatExtensionConfiguration
Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questa operazione verrà usata da una richiesta di completamento della chat che deve usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questo verrà usato da una chat richieste di completamento che devono usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureChatExtensionType
Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questa operazione verrà usata da una richiesta di completamento della chat che deve usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Description: rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questa operazione verrà usata da una richiesta di completamento della chat che deve usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Type: string
Default:
Nome enumerazione: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Rappresenta l'uso di Azure Search come estensione di chat OpenAI Azure. |
| azure_cosmos_db | Rappresenta l'uso di Azure Cosmos DB come estensione di chat OpenAI Azure. |
azureSearchChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Azure Ricerca quando viene usata come estensione di chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questo verrà usato da una chat richieste di completamento che devono usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parametri per Azure Ricerca quando vengono usati come estensione di chat OpenAI Azure. | No |
azureSearchChatExtensionParameters
Parametri per Azure Ricerca quando vengono usati come estensione di chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| role_information | string | Fornire le istruzioni del modello sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e dirgli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite complessivo dei token. | No | |
| endpoint | string | Percorso endpoint assoluto da usare per la risorsa di ricerca Azure. | Yes | |
| index_name | string | Nome dell'indice da usare come disponibile nella risorsa di ricerca di Azure a cui si fa riferimento. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di ricerca Azure configurata. | No | |
| query_type | azureSearchQueryType | Tipo di Azure query di recupero della ricerca che deve essere eseguita quando viene usata come estensione di chat OpenAI Azure. | No | |
| semantic_configuration | string | Configurazione semantica aggiuntiva per la query. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di ricerca Azure configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | No | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | No |
azureSearchQueryType
Tipo di Azure query di recupero della ricerca che deve essere eseguita quando viene usata come estensione di chat OpenAI Azure.
Description: tipo di query di recupero della ricerca Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI Azure.
Type: string
Default:
Nome enumerazione: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Rappresenta il parser di query semplice predefinito. |
| semantic | Rappresenta il parser di query semantico per la modellazione semantica avanzata. |
| vector | Rappresenta la ricerca vettoriale sui dati calcolati. |
| vector_simple_hybrid | Rappresenta una combinazione della semplice strategia di query con i dati vettoriali. |
| vector_semantic_hybrid | Rappresenta una combinazione di query di ricerca semantica e di dati vettoriali. |
azureCosmosDBChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando viene usata come estensione di chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questo verrà usato da una chat richieste di completamento che devono usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parametri da usare durante la configurazione di Azure OpenAI nelle estensioni della chat di dati quando si usa Azure Cosmos DB per MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parametri da usare quando si configura Azure OpenAI nelle estensioni della chat di dati quando si usa Azure Cosmos DB per MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Opzioni di autenticazione per Azure OpenAI nei dati quando si usa un stringa di connessione. | Yes | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| role_information | string | Fornire le istruzioni del modello sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e dirgli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite complessivo dei token. | No | |
| database_name | string | Nome del database vCore mongoDB da usare con Azure Cosmos DB. | Yes | |
| container_name | string | Nome del contenitore di risorse Azure Cosmos DB. | Yes | |
| index_name | string | Nome dell'indice vCore di MongoDB da usare con Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Azure Cosmos DB configurata. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Azure Cosmos DB configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | Yes | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | Yes |
onYourDataAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataAuthenticationType
Tipi di autenticazione supportati con Azure OpenAI nei dati.
Description: tipi di autenticazione supportati con Azure OpenAI nei dati.
Type: string
Default:
Nome enumerazione: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticazione tramite chiave API. |
| connection_string | Autenticazione tramite stringa di connessione. |
| system_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dal sistema. |
| user_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dall'utente. |
onYourDataApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes | |
| key | string | Chiave API da usare per l'autenticazione. | No |
onYourDataConnectionStringAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati quando si usa un stringa di connessione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes | |
| connection_string | string | Connection string da usare per l'autenticazione. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dal sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dall'utente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes | |
| managed_identity_resource_id | string | ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. | No |
onYourDataVectorizationSource
Rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI sui dati con ricerca vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili Azure OpenAI nei dati può essere usata per configurare la vettorizzazione dei dati da usare con vector search. |
Yes |
onYourDataVectorizationSourceType
Rappresenta le origini disponibili Azure OpenAI sui dati può usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale.
Description: rappresenta le origini disponibili Azure OpenAI nei dati possono usare per configurare la vettorizzazione dei dati da usare con
vector search.
Type: string
Default:
Nome enumerazione: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Rappresenta la vettorizzazione eseguita dalle chiamate al servizio pubblico a un modello di incorporamento OpenAI Azure. |
| deployment_name | Rappresenta un nome di distribuzione del modello Ada da usare. Questa distribuzione del modello deve trovarsi nella stessa Azure risorsa OpenAI, ma Nei dati userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che abilita il vettore ricerca anche nelle reti private. |
onYourDataDeploymentNameVectorizationSource
I dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili Azure OpenAI nei dati può essere usata per configurare la vettorizzazione dei dati da usare con vector search. |
Yes | |
| deployment_name | string | Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa Azure risorsa OpenAI, ma In i dati userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche nelle reti private. | No |
onYourDataEndpointVectorizationSource
I dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su una chiamata all'endpoint OpenAI pubblica Azure per gli incorporamenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili Azure OpenAI nei dati può essere usata per configurare la vettorizzazione dei dati da usare con vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API. | No | |
| endpoint | string | Specifica l'endpoint da usare per la vettorizzazione. Questo endpoint deve trovarsi nella stessa Azure risorsa OpenAI, ma In i dati userà questo endpoint tramite una chiamata interna anziché una chiamata pubblica, che abilita la ricerca vettoriale anche nelle reti private. | No |
azureChatExtensionsMessageContext
Rappresentazione delle informazioni di contesto aggiuntive disponibili quando Azure estensioni di chat OpenAI sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI Azure configurata per l'uso di un'estensione corrispondente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Risultato del recupero dell'origine dati, utilizzato per generare il messaggio di assistente nella risposta. | No | |
| intent | string | Finalità rilevata dalla cronologia delle chat, usata per passare al turno successivo per trasferire il contesto. | No |
citation
informazioni sulla citazione per un messaggio di risposta di completamento della chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto della citazione. | Yes | |
| title | string | Titolo della citazione. | No | |
| url | string | URL della citazione. | No | |
| filepath | string | Percorso del file della citazione. | No | |
| chunk_id | string | ID blocco della citazione. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID della chiamata allo strumento. | Yes | |
| type | toolCallType | Tipo di chiamata allo strumento, in questo caso function. |
Yes | |
| function | object | Funzione chiamata dal modello. | Yes |
Proprietà per la funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome della funzione da chiamare. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
toolCallType
Tipo di chiamata allo strumento, in questo caso function.
Descrizione: tipo di chiamata allo strumento, in questo caso function.
Type: string
Default:
Nome enumerazione: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | Il tipo di chiamata dello strumento è funzione. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Chiamare lo strumento a cui risponde questo messaggio. | No | |
| content | string | Contenuto del messaggio. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
No | |
| name | string | Contenuto del messaggio. | No | |
| content | string | Contenuto del messaggio. | No |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento della chat. | Yes | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. | No | |
| choices | array | Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1. |
Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. | Yes | |
| model | string | Modello usato per il completamento della chat. | Yes | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
| object | enum | Tipo di oggetto, che è sempre chat.completion.Valori possibili: chat.completion |
Yes | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionStreamResponse
Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input specificato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID. | Yes | |
| choices | array | Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1. |
Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp. | Yes | |
| model | string | Modello per generare il completamento. | Yes | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
| object | enum | Tipo di oggetto, che è sempre chat.completion.chunk.Valori possibili: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Delta di completamento della chat generato dalle risposte del modello in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto del messaggio di blocco. | No | |
| function_call | object | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
| tool_calls | array | No | ||
| role | enum | Ruolo dell'autore del messaggio. Valori possibili: sistema, utente, assistente, strumento |
No | |
| refusal | string | Messaggio di rifiuto generato dal modello. | No |
Proprietà per function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome della funzione da chiamare. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | ID della chiamata allo strumento. | No | |
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
No | |
| function | object | No |
Proprietà per la funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome della funzione da chiamare. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
chatCompletionStreamOptions
Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE] messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il choices campo sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null. |
No |
chatCompletionChoiceLogProbs
Registrare le informazioni sulla probabilità per la scelta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. | Yes | |
| refusal | array | Elenco di token di rifiuto dei messaggi con informazioni di probabilità di log. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | Probabilità del log di questo token. | Yes | |
| bytes | array | Elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni di byte devono essere combinati per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token. |
Yes | |
| top_logprobs | array | Elenco dei token più probabili e della probabilità di log, in questa posizione del token. In rari casi, può essere presente un numero inferiore al numero di richieste restituite top_logprobs . |
Yes |
chatCompletionResponseMessage
Messaggio di completamento della chat generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | Ruolo dell'autore del messaggio di risposta. | Yes | |
| refusal | string | Messaggio di rifiuto generato dal modello. | Yes | |
| content | string | Contenuto del messaggio. | Yes | |
| tool_calls | array | Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. | No | |
| function_call | chatCompletionFunctionCall | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
| context | azureChatExtensionsMessageContext | Rappresentazione delle informazioni di contesto aggiuntive disponibili quando sono coinvolte Azure estensioni di chat OpenAI nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando utilizzando una Azure richiesta OpenAI configurata per l'uso di un'estensione corrispondente. |
No |
chatCompletionResponseMessageRole
Ruolo dell'autore del messaggio di risposta.
Descrizione: ruolo dell'autore del messaggio di risposta.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
Yes | |
| function | object | Yes |
Proprietà per la funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome della funzione da chiamare. |
ParallelToolCalls
Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
chatCompletionMessageToolCalls
Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione.
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nome della funzione da chiamare. | Yes | |
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | Yes |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Numero di token nel prompt. | Yes | |
| completion_tokens | integer | Numero di token nel completamento generato. | Yes | |
| total_tokens | integer | Numero totale di token usati nella richiesta (richiesta + completamento). | Yes | |
| completion_tokens_details | object | Suddivisione dei token usati in un completamento. | No |
Proprietà per completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Token generati dal modello per il ragionamento. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: funzione |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
Nessuna proprietà definita per questo componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
| name | string | Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione parameters definisce una funzione con un elenco di parametri vuoto. |
No | |
| strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel parameters campo . Solo un subset di schema JSON è supportato quando strict è true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di formato di risposta definito: textValori possibili: testo |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di formato di risposta definito: json_objectValori possibili: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Schema per il formato di risposta, descritto come oggetto Schema JSON.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di formato di risposta definito: json_schemaValori possibili: json_schema |
Yes | |
| json_schema | object | Yes |
Proprietà per json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Schema per il formato di risposta, descritto come oggetto Schema JSON. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel schema campo. Solo un subset di schema JSON è supportato quando strict è true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | File audio da tradurre. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello userà la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
audioResponse
Risposta di traduzione o trascrizione quando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes |
audioVerboseResponse
Risposta di traduzione o trascrizione quando response_format è stato verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes | |
| task | string | Tipo di attività audio. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Definisce il formato dell'output.
Descrizione: definisce il formato dell'output.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Oggetto file audio da trascrivere. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello userà la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
| language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 migliorerà l'accuratezza e la latenza. | No |
audioSegment
Segmento di trascrizione o traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Offset del segmento. | No | |
| start | number | Offset iniziale segmento. | No | |
| end | number | Offset di fine segmento. | No | |
| text | string | Segment text. | No | |
| tokens | array | Token del testo. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilità media del log. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilità di no speech. |
No |
imageQuality
Qualità dell'immagine che verrà generata.
Descrizione: qualità dell'immagine che verrà generata.
Type: string
Default: standard
Nome enumerazione: Qualità
Enum Values:
| Value | Description |
|---|---|
| standard | Qualità standard crea immagini con qualità standard. |
| hd | Qualità HD crea immagini con dettagli più sottili e maggiore coerenza nell'immagine. |
imagesResponseFormat
Formato in cui vengono restituite le immagini generate.
Descrizione: formato in cui vengono restituite le immagini generate.
Type: string
Default: url
Nome enumerazione: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | URL che fornisce l'accesso temporaneo per scaricare le immagini generate. |
| b64_json | Le immagini generate vengono restituite come stringa con codifica Base64. |
imageSize
Dimensioni delle immagini generate.
Descrizione: dimensioni delle immagini generate.
Type: string
Default: 1024x1024
Nome enumerazione: Dimensioni
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | Le dimensioni desiderate dell'immagine generata sono 1792x1024 pixel. |
| 1024x1792 | Le dimensioni desiderate dell'immagine generata sono 1024x1792 pixel. |
| 1024x1024 | Le dimensioni desiderate dell'immagine generata sono 1024x1024 pixel. |
imageStyle
Stile delle immagini generate.
Descrizione: stile delle immagini generate.
Type: string
Default: vivid
Nome enumerazione: stile
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid crea immagini iperrealistiche e drammatiche. |
| natural | Le immagini naturali creano immagini più naturali e meno iperrealistiche. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4.000 caratteri. | Yes | |
| n | integer | Numero di immagini da generare. | No | 1 |
| size | imageSize | Dimensioni delle immagini generate. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | url |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No | |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | standard |
| style | imageStyle | Stile delle immagini generate. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Timestamp unix al momento della creazione dell'operazione. | Yes | |
| data | array | Dati del risultato dell'operazione, se l'operazione ha esito positivo | Yes |
imageResult
L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | URL dell'immagine. | No | |
| b64_json | string | Immagine con codifica Base64 | No | |
| content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtro del contenuto. | No | |
| revised_prompt | string | Richiesta usata per generare l'immagine, se è presente una revisione al prompt. | No | |
| prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No |
Completions extensions
Le estensioni di completamento non fanno parte della versione ga più recente della Azure spec di inferenza del piano dati OpenAI.
Chatmessage
L'oggetto messaggio chat non fa parte della versione ga più recente della Azure spec di inferenza del piano dati OpenAI.
Sintesi vocale (anteprima)
Attualmente non fa parte della versione più recente Azure OpenAI GA della specifica di inferenza del piano dati OpenAI Azure. Per questa funzionalità, vedere la versione più recente preview.
Next steps
Informazioni sui modelli e sull'ottimizzazione con l'API REST. Altre informazioni sui modelli informazioni che alimentano Azure OpenAI.