Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Azure Inhaltsverständnis in Foundry Tools verwendet Ihre Foundry-Modellbereitstellungen für alle Vorgänge, die ein generatives KI-Modell erfordern. Dieser Ansatz hilft Ihnen, die bereitgestellte Kapazität zu maximieren und kapazität bei Bedarf in weniger Bereitstellungen zu konsolidieren. Sie können auch das Modell auswählen, das für Ihr Szenario in Bezug auf Preis und Latenz am besten geeignet ist.
Sie werden für alle Token (Eingabe und Ausgabe) in Rechnung gestellt, die von der verbundenen Bereitstellung verarbeitet werden, und Das Inhaltsverständnis berechnet Sie nur für Inhaltsverständnis-spezifische Meter. Weitere Informationen zum Abrechnungsmodell finden Sie in der Preiserklärung .
Der Dienst erfordert ein chat completion Modell und ein embeddings Modell und unterstützt für jeden ein paar verschiedene Optionen.
Unterstützte Modelle
Der Dienst wird regelmäßig aktualisiert, um Unterstützung für weitere Modelle hinzuzufügen. Die derzeit unterstützten Modelle sind in Den Dienstgrenzwerten aufgeführt – Unterstützte generative Modelle.
Funktionsweise der Modellauswahl
Wenn Sie eine benutzerdefinierte Analyse erstellen, geben Sie an, welches Chat-Vervollständigungsmodell und welches Einbettungsmodell verwendet wird. Diese Zuordnung wird mithilfe eines Bereitstellungsalias und nicht direkt mit einem bestimmten Bereitstellungsnamen erstellt.
{
"analyzerId": "myReceipt",
"models": {
// Specifies the completion and embedding models used by this analyzer.
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
}
// Complete analyzer definition
}
Tipp
GPT-4.1 ist ein empfohlenes Modell für die Verwendung mit Foundry und dem Studio. Sie können jedes unterstützte Chatabschlussmodell verwenden, das Ihren Qualitäts-, Latenz- und Kostenzielen entspricht. Einbettungsmodelle werden verwendet, wenn Sie bezeichnete Beispiele oder kontextbezogenes Lernen verwenden, um die Analysequalität zu verbessern.
Zwei Methoden zur Bereitstellung von Modellimplementierungen
Als Kunde haben Sie zwei Möglichkeiten:
- Option 1: Legen Sie Standardmodellbereitstellungen auf Ressourcenebene fest.
- Option 2: Übergeben Sie die Modellbereitstellungszeiger in jeder Analyseanforderung.
Wenn Sie Ressourcenstandardwerte festlegen, können Sie diese Standardwerte für eine einzelne Anforderung weiterhin außer Kraft setzen, indem Sie sie in diese Anforderung einschließen modelDeployments .
Option 1: Festlegen von Standardbereitstellungen auf Ressourcenebene
Nachdem Sie die Standardwerte festgelegt haben, können Sie bei Analyseanforderungen modelDeployments weglassen. Wählen Sie eine der folgenden Setupmethoden aus:
Verwenden Sie PATCH /contentunderstanding/defaults , um die Standardeinstellungen für die Modellbereitstellung auf Ressourcenebene festzulegen.
PATCH /contentunderstanding/defaults
{
// Specify default model deployments as "model name": "deployment name"
"modelDeployments": {
"gpt-4.1": "gpt-4.1-deployment",
"gpt-4.1-mini": "gpt-4.1-mini",
"text-embedding-3-large": "text-embedding-3-large-deployment",
"text-embedding-ada-002": "text-embedding-ada-002"
}
}
Beispielanalyseanforderung, die Ressourcenstandardwerte verwendet:
POST /myReceipt:analyze
{
// No modelDeployments needed - uses resource defaults
}
Option 2: Modellbereitstellungen bei jeder Analyseanforderung übergeben
Verwenden Sie diese Option, wenn jede Anforderung explizit auf Modellbereitstellungen verweisen soll, indem Sie ein modelDeployments Objekt in der Analyseanforderung übergeben. Dieser Ansatz bietet Ihnen maximale Flexibilität, unterschiedliche Bereitstellungen für unterschiedliche Anforderungen zu verwenden und erfordert keine Ressourcenstandardwerte.
POST /contentunderstanding/analyzers/prebuilt-invoice:analyze
{
"inputs": [
{
"url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
}
],
// Specify the model deployments for this request
"modelDeployments": {
"gpt-4.1": "gpt-4.1",
"text-embedding-3-large": "text-embedding-3-large"
}
}
Die modelDeployments Werte in dieser Analyseanforderung setzen alle Standardwerte außer Kraft, die Sie auf Ressourcenebene konfiguriert haben.
Nutzungs- und Abrechnungsdaten
Zu den Analyseantworten gehört die Eigenschaft usage. Diese Eigenschaft meldet die Tokenverwendung für Ihre verbundene Bereitstellung und andere Nutzungsmessungen für Inhaltsverständnis. Sie können diese Werte mit Bereitstellungsnutzungsdaten vergleichen, um den Verbrauch von Content Understanding mit Ihrer Modellbereitstellung zu korrelieren.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-4.1-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Ausführliche Informationen zur Funktionsweise der Abrechnung für das Inhaltsverständnis finden Sie in der Preiserklärung.
Inhaltsfilterung und Guardrails
Jede Foundry-Modellbereitstellung verfügt über eine zugeordnete Guardrails-Instanz, die Inhalte auf Sicherheit auswertet. Das Inhaltsverständnis zeigt die Guardrails-Ausgabe direkt in der Analyseantwort als content_filters Array an. Wenn eine Guardrails-Instanz Inhalte blockiert, gibt der Analysevorgang einen Fehler zurück. Wenn der Inhalt kommentiert wird, durchläuft das Ergebnis die angefügten Filtermetadaten.
Aktualisieren Sie die Guardrails-Konfiguration für die Modellbereitstellung in Ihrem Azure AI Foundry
-Projekt, um die Schwellenwerte für Inhaltsfilter anzupassen oder von Blockieren auf Kommentieren zu wechseln. Weitere Informationen finden Sie unter Inhaltsfilterung und Guardrails und der content_filters Antwortobjektreferenz.