Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Azure Content Understanding in Foundry Tools usa le distribuzioni del modello Foundry per tutte le operazioni che richiedono un modello di intelligenza artificiale generativo. Questo approccio consente di ottimizzare la capacità fornita e di consolidarla in un minor numero di distribuzioni, se necessario. È anche possibile scegliere il modello più adatto allo scenario per prezzo e latenza.
Vengono fatturati tutti i token (input e output) elaborati dall'implementazione connessa, mentre Content Understanding addebita solo i metri specifici ad essa relativi. Per altre informazioni sul modello di fatturazione, vedere lo strumento di spiegazione dei prezzi .
Il servizio richiede un chat completion modello e un embeddings modello e supporta alcune opzioni diverse per ognuna.
Modelli supportati
Il servizio viene aggiornato periodicamente per aggiungere il supporto per altri modelli. I modelli attualmente supportati sono elencati in Limiti dei servizi - Modelli generativi supportati.
Funzionamento della selezione del modello
Quando si crea un analizzatore personalizzato, specificare il modello di completamento della chat e il modello di incorporamento usato. Questa associazione viene eseguita usando un alias di distribuzione anziché direttamente con un nome di distribuzione specifico.
{
"analyzerId": "myReceipt",
"models": {
// Specifies the completion and embedding models used by this analyzer.
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
}
// Complete analyzer definition
}
Suggerimento
GPT-4.1 è un modello consigliato per l'uso con Foundry e Studio. È possibile usare qualsiasi modello di completamento della chat supportato che soddisfi gli obiettivi di qualità, latenza e costi. I modelli di incorporazione vengono usati quando si usano esempi etichettati o l'apprendimento contestuale per migliorare la qualità dell'analizzatore.
Due modi per implementare distribuzioni di modelli
I clienti hanno due opzioni:
- Opzione 1: Impostare le distribuzioni predefinite del modello a livello di risorsa.
- Opzione 2: Passare i riferimenti per il deployment del modello in ogni richiesta di analisi.
Se si impostano le impostazioni predefinite delle risorse, è comunque possibile eseguire l'override di tali impostazioni predefinite per una singola richiesta includendo modelDeployments in tale richiesta.
Opzione 1: Impostare le distribuzioni predefinite a livello di risorsa
Dopo aver impostato le impostazioni predefinite, l'analisi delle richieste può omettere modelDeployments. Scegliere uno dei metodi di installazione seguenti:
Usare PATCH /contentunderstanding/defaults per impostare le impostazioni predefinite per la distribuzione del modello a livello di risorsa.
PATCH /contentunderstanding/defaults
{
// Specify default model deployments as "model name": "deployment name"
"modelDeployments": {
"gpt-4.1": "gpt-4.1-deployment",
"gpt-4.1-mini": "gpt-4.1-mini",
"text-embedding-3-large": "text-embedding-3-large-deployment",
"text-embedding-ada-002": "text-embedding-ada-002"
}
}
Esempio di richiesta di analisi che usa le impostazioni predefinite delle risorse:
POST /myReceipt:analyze
{
// No modelDeployments needed - uses resource defaults
}
Opzione 2: Trasmettere le distribuzioni dei modelli in ogni richiesta di analisi
Usare questa opzione quando si vuole che ogni richiesta punti in modo esplicito alle distribuzioni del modello passando un modelDeployments oggetto nella richiesta di analisi. Questo approccio offre la massima flessibilità per l'uso di distribuzioni diverse per richieste diverse e non richiede impostazioni predefinite per le risorse.
POST /contentunderstanding/analyzers/prebuilt-invoice:analyze
{
"inputs": [
{
"url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
}
],
// Specify the model deployments for this request
"modelDeployments": {
"gpt-4.1": "gpt-4.1",
"text-embedding-3-large": "text-embedding-3-large"
}
}
I modelDeployments valori in questa richiesta di analisi sostituiscono tutte le impostazioni predefinite configurate a livello di risorsa.
Dati di utilizzo e fatturazione
Le risposte di analisi includono una proprietà usage. Questa proprietà segnala l'utilizzo dei token per la distribuzione connessa e altri contatori di utilizzo di Content Understanding. È possibile confrontare questi valori con i dati di utilizzo del deployment per correlare l'utilizzo di Content Understanding con il deployment del modello.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-4.1-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Per informazioni dettagliate sul funzionamento della fatturazione per Informazioni sul contenuto, vedere la spiegazione dei prezzi.
Filtro dei contenuti e guardrail
Ogni distribuzione del modello Foundry ha un'istanza di Guardrails associata che valuta il contenuto per la sicurezza. Content Understanding espone l'output Guardrails direttamente nella risposta di analisi come content_filters array. Se un'istanza di Guardrails blocca il contenuto, l'operazione di analisi restituisce un errore; se annota il contenuto, il risultato viene trasmesso con i metadati del filtro associati.
Per modificare le soglie di filtro del contenuto o passare dal blocco all'annotazione, aggiornare la configurazione guardrails nella distribuzione del modello nel progetto Azure AI Foundry. Per altre informazioni, vedere Filtro del contenuto e Guardrails e i riferimenti dell'oggetto di rispostacontent_filters.