Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Azure Content Understanding i Foundry Tools använder dina Foundry-modelldistributioner för alla åtgärder som kräver en generativ AI-modell. Den här metoden hjälper dig att maximera etablerad kapacitet och konsolidera kapaciteten till färre distributioner om det behövs. Du kan också välja den modell som passar bäst för ditt scenario för pris och svarstid.
Du debiteras för alla token (indata och utdata) som bearbetas av den anslutna distributionen, och Content Understanding debiterar dig endast för Content Understanding-specifika mätare. Mer information om faktureringsmodellen finns i prisförklaringen .
Tjänsten kräver en chat completion modell och en embeddings modell och har stöd för flera olika alternativ för var och en.
Modeller som stöds
Tjänsten uppdateras regelbundet för att lägga till stöd för fler modeller. De modeller som stöds för närvarande visas i Tjänstgränser – Generativa modeller som stöds. Se modellers avvecklingsschema för att spåra Foundry-modellens livscykelsteg och pensioneringsdatum.
Observera
GPT-5.2 stöds nu i alla Content Understanding-analysverktyg. Stöd för ytterligare modeller kommer att läggas till i framtida uppdateringar.
Kontrollera modeller som stöds för varje analysverktyg
Olika analysverktyg stöder olika uppsättningar av modeller. Om du vill kontrollera vilka modeller som en specifik analysator stöder använder du analysverktygs-API:et GET :
GET /contentunderstanding/analyzers/{analyzerId}?api-version=2025-11-01
Svaret innehåller ett supportedModels objekt som visar en lista över giltiga slutförande- och inbäddningsmodeller för analysatorn:
{
"analyzerId": "prebuilt-invoice",
// ...
"supportedModels": {
"completion": [
"gpt-4.1",
"gpt-5.2"
],
"embedding": [
"text-embedding-3-large"
]
},
"models": {
"completion": "prebuilt-analyzer-completion",
"embedding": "prebuilt-analyzer-embedding"
}
}
Modellval för fördefinierade analysverktyg
Fördefinierade analysverktyg använder modellalias i stället för direkta modellnamn i avsnittet models . På så sätt kan tjänsten stödja modelluppgraderingar utan att ändra analysverktygsdefinitioner.
Fördefinierade analysverktyg refererar till följande modellalias:
| Modellalias | Används av |
|---|---|
prebuilt-analyzer-completion |
Standard för de flesta fördefinierade analysverktyg |
prebuilt-analyzer-completion-mini |
Standard för valda fördefinierade analysverktyg, t.ex. prebuilt-*Search |
prebuilt-analyzer-embedding |
Fördefinierade analysverktyg som kräver inbäddningar |
Du mappar dessa alias till dina faktiska distributioner i konfigurationen modelDeployments (se Ange standarddistributioner).
Så här fungerar modellval
När du skapar en anpassad analysator kan du ange vilken modell för chattens slutförande och inbäddningsmodell som används.
{
"analyzerId": "myInvoice",
"models": {
// Specify the completion and embedding models for this custom analyzer by referencing the model aliases
"completion": "prebuilt-analyzer-completion",
"embedding": "prebuilt-analyzer-embedding"
},
"config": {
}
// Complete analyzer definition
}
Tips
GPT-5.2 är en rekommenderad modell för användning med Foundry och Studio. Du kan använda valfri modell för chattkomplettering som stöds och som passar dina mål för kvalitet, svarstid och kostnad. Inbäddningsmodeller används när du använder märkta exempel eller kontextinlärning för att förbättra analyskvaliteten.
Två sätt att tillhandahålla modellimplementeringar
För att konfigurera modelldistributioner har du två alternativ:
- Alternativ 1: Ange standardmodelldistributioner på resursnivå.
- Alternativ 2: Skicka modelldistributionspekare i varje analysbegäran.
Om du anger standardvärden för resurser kan du fortfarande åsidosätta dessa standardvärden för en enskild begäran genom att inkludera modelDeployments i den begäran.
Alternativ 1: Ange standarddistributioner på resursnivå
Du kan ansluta Content Understanding direkt till din modelldistribution när du anropar analysera via API:et. Men för att förenkla hanteringen i en uppsättning olika analysverktyg kan du centralt hantera standardmodeller för alla analysverktyg under en viss Foundry-resurs. Det gör du genom att välja någon av följande installationsmetoder:
Det fullständiga onboarding-flödet finns i Snabbstart: Prova Content Understanding Studio.
- Öppna Content Understanding Studio.
- Välj kugghjulsikonen Inställningar i det övre högra hörnet.
- Välj Lägg till resurs för att öppna dialogrutan Lägg till ny ansluten resurs .
- Om du vill ansluta en resurs väljer du prenumerationen, resursgruppen och Foundry-resursen i dialogrutan.
- Valfritt: Välj Aktivera automatisk distribution för nödvändiga modeller om det inte finns någon tillgänglig standarddistribution.
- Välj Nästa, granska mappningar och spara sedan.
Studio kan konfigurera standardvärden för modeller som stöds, till exempel gpt-5.2, gpt-4.1, gpt-4.1-minioch text-embedding-3-large. Om den valda resursen inte redan har de distributioner som krävs kan Studio distribuera dem när automatisk distribution är aktiverad.
Härifrån kan du prova innehållstolkningsfunktioner i webbportalen genom att följa stegen i snabbstarten.
Alternativ 2: Skicka modelldistributioner för varje analysbegäran
Använd det här alternativet när du vill att varje begäran uttryckligen ska peka på modelldistributioner genom att skicka ett modelDeployments objekt i analysbegäran. Den här metoden ger dig maximal flexibilitet att använda olika distributioner för olika begäranden och kräver inte standardvärden för resurser.
POST /contentunderstanding/analyzers/myInvoice:analyze
{
"inputs": [
{
"url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
}
],
"modelDeployments": {
"prebuilt-analyzer-completion": "myGpt52Deployment",
"prebuilt-analyzer-embedding": "myTextEmbedding3LargeDeployment"
}
}
Värdena modelDeployments i den här analysbegäran åsidosätter standardvärden som du har konfigurerat på resursnivå.
Användnings- och faktureringsdata
Analyserade svar inkluderar en usage egenskap. Den här egenskapen rapporterar tokenanvändning för din anslutna distribution och andra Content Understanding-användningsmätare. Du kan jämföra dessa värden med distributionsanvändningsdata för att korrelera förbrukningen från Content Understanding med din modelldistribution.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-5.2-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-5.2-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Mer information om hur fakturering fungerar för Content Understanding finns i prisförklaringen.
Innehållsfiltrering och skyddsräcken
Varje foundry-modelldistribution har en associerad Guardrails-instans som utvärderar innehåll för säkerhet. Content Understanding visar Guardrails-utdata direkt i analyssvaret som ett content_filters fält. Om en Guardrails-instans blockerar innehåll returnerar analysåtgärden ett fel. Om det kommenterar innehåll skickas resultatet igenom med filtermetadata kopplade.
Om du vill justera tröskelvärden för innehållsfilter eller växla från blockering till att kommentera uppdaterar du Guardrails-konfigurationen för modelldistributionen i ditt Azure AI Foundry projekt. Mer information finns i Innehållsfiltrering och Skyddsräcken och referensen för svarsobjektetcontent_filters.