Opties voor modelimplementatie voor Content Understanding Analyzers

Azure Content Understanding in Foundry Tools maakt gebruik van uw Foundry-modelimplementaties voor alle bewerkingen waarvoor een generatief AI-model is vereist. Deze aanpak helpt u bij het maximaliseren van de ingerichte capaciteit en het samenvoegen van capaciteit tot minder implementaties, indien nodig. U kunt ook het model kiezen dat het beste past bij uw scenario voor prijs en latentie.

U wordt gefactureerd voor alle tokens (invoer en uitvoer) die door de verbonden implementatie worden verwerkt en Content Understanding factureert u alleen voor inhoudsbegrip-specifieke meters. Zie de prijsinformatie voor meer informatie over het factureringsmodel.

De service vereist een chat completion model en een embeddings model en biedt ondersteuning voor een aantal verschillende opties voor elk model.

Ondersteunde modellen

De service wordt periodiek bijgewerkt om ondersteuning voor meer modellen toe te voegen. De momenteel ondersteunde modellen worden vermeld in servicelimieten: ondersteunde generatieve modellen. Raadpleeg het schema voor buitengebruikstelling van modellen om de levenscyclusfase en de buitengebruikstellingsdatum van het Foundry-model bij te houden.

Opmerking

GPT-5.2 wordt nu ondersteund voor alle Content Understanding Analyzers. Ondersteuning voor extra modellen wordt toegevoegd in toekomstige updates.

Ondersteunde modellen per analyse controleren

Verschillende analyzers ondersteunen verschillende modellen. Als u wilt controleren welke modellen een specifieke analyse ondersteunt, gebruikt u de GET analyse-API:

GET /contentunderstanding/analyzers/{analyzerId}?api-version=2025-11-01

Het antwoord bevat een supportedModels object waarin de geldige voltooiings- en insluitingsmodellen voor die analyse worden vermeld:

{
  "analyzerId": "prebuilt-invoice",
  // ...
  "supportedModels": {
    "completion": [
      "gpt-4.1",
      "gpt-5.2"
    ],
    "embedding": [
      "text-embedding-3-large"
    ]
  },
  "models": {
    "completion": "prebuilt-analyzer-completion",
    "embedding": "prebuilt-analyzer-embedding"
  }
}

Modelselectie voor voorgeconfigureerde analyzers

Vooraf gedefinieerde analysefuncties maken gebruik van modelaliassen in plaats van directe modelnamen in hun models sectie. Hierdoor kan de service modelupgrades ondersteunen zonder analysedefinities te wijzigen.

Vooraf gedefinieerde analyses verwijzen naar de volgende modelaliassen:

Modelalias Gebruikt door
prebuilt-analyzer-completion Standaard voor de meeste voorgebouwde analyzers
prebuilt-analyzer-completion-mini Standaard voor geselecteerde vooraf gedefinieerde analyses, bijvoorbeeld prebuilt-*Search
prebuilt-analyzer-embedding Vooraf gebouwde analyzers waarvoor embeddings zijn vereist

U wijst deze aliassen toe aan uw werkelijke implementaties in de modelDeployments configuratie (zie Standaardimplementaties instellen).

Hoe modelselectie werkt

Wanneer u een aangepaste analyzer maakt, kunt u opgeven welk voltooiingsmodel voor chats en insluitmodel het gebruikt.

{
  "analyzerId": "myInvoice",
  "models": {
    // Specify the completion and embedding models for this custom analyzer by referencing the model aliases
    "completion": "prebuilt-analyzer-completion",
    "embedding": "prebuilt-analyzer-embedding"
  },
  "config": {

  }
  // Complete analyzer definition
}

Tip

GPT-5.2 is een aanbevolen model voor gebruik met Foundry en de Studio. U kunt elk ondersteund voltooiingsmodel voor chats gebruiken dat past bij uw kwaliteits-, latentie- en kostendoelen. Het insluiten van modellen wordt gebruikt wanneer u gelabelde voorbeelden of in context learning gebruikt om de analysekwaliteit te verbeteren.

Twee manieren om modelimplementaties te bieden

Als u modelimplementaties wilt instellen, hebt u twee opties:

  • Optie 1: Standaardmodelimplementaties instellen op resourceniveau.
  • Optie 2: Geef modelimplementatiepunten door in elke analyseaanvraag.

Als u standaardinstellingen voor resources instelt, kunt u deze standaardwaarden voor een enkel verzoek nog steeds overschrijven door modelDeployments in dat verzoek op te nemen.

Optie 1: Standaardimplementaties instellen op resourceniveau

U kunt Content Understanding rechtstreeks verbinden met uw modelimplementatie wanneer u analyse aanroept via de API. Om het beheer in een set verschillende analysen te vereenvoudigen, kunt u standaardmodellen centraal beheren voor alle analysen onder een bepaalde Foundry-resource. Kies hiervoor een van de volgende installatiemethoden:

Zie Quickstart: Content Understanding Studio uitproberen voor de volledige onboardingstroom.

  1. Open Content Understanding Studio.
  2. Selecteer het tandwielpictogram Instellingen in de rechterbovenhoek.
  3. Selecteer Resource toevoegen om het dialoogvenster Nieuwe verbonden resource toevoegen te openen.
  4. Als u een resource wilt verbinden, selecteert u het abonnement, de resourcegroep en de Foundry-resource in het dialoogvenster. Schermopname van het dialoogvenster Nieuwe verbonden resource toevoegen met abonnement, resourcegroep, resourcenaam en automatische implementatieoptie.
  5. Optioneel: selecteer Automatische implementatie inschakelen voor vereiste modellen als er geen standaardimplementatie beschikbaar is.
  6. Selecteer Volgende, controleer de toewijzingen en sla deze vervolgens op.

Studio kan standaardwaarden configureren voor ondersteunde modellen, zoals gpt-5.2, gpt-4.1en gpt-4.1-minitext-embedding-3-large. Als de geselecteerde resource nog niet over de vereiste implementaties beschikt, kan Studio deze implementeren wanneer automatische implementatie is ingeschakeld.

Schermopname van de implementatie van het installatie- en configuratiemodel in Content Understanding Studio.

Van hieruit kunt u inhoudskennisfuncties uitproberen in de webportal door de stappen in de quickstart te volgen.

Optie 2: Modelimplementaties doorgeven in elke analyseaanvraag

Gebruik deze optie als u wilt dat elke aanvraag expliciet verwijst naar modelimplementaties door een modelDeployments object door te geven in de analyseaanvraag. Deze benadering biedt u maximale flexibiliteit voor het gebruik van verschillende implementaties voor verschillende aanvragen en vereist geen standaardinstellingen voor resources.

POST /contentunderstanding/analyzers/myInvoice:analyze
{
  "inputs": [
    {
      "url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
    }
  ],
  "modelDeployments": {
    "prebuilt-analyzer-completion": "myGpt52Deployment",
    "prebuilt-analyzer-embedding": "myTextEmbedding3LargeDeployment"
  }
}

De modelDeployments waarden in deze analyseaanvraag overschrijven standaardwaarden die u op resourceniveau hebt geconfigureerd.

Gebruiks- en factureringsgegevens

Geanalyseerde antwoorden bevatten een usage-eigenschap. Deze eigenschap rapporteert tokengebruik voor uw verbonden implementatie en andere gebruiksmeters voor Inhoudsbegrip. U kunt deze waarden vergelijken met gebruiksgegevens van de implementatie om het verbruik van Content Understanding te correleren met uw modelimplementatie.

{
  "usage": {
    "documentPagesMinimal": 3, 
    "documentPagesBasic": 2, 
    "documentPagesStandard": 1, 
    "audioHours": 0.234,
    "videoHours": 0.123,
    "contextualizationToken": 1000,
    "tokens": {
      "gpt-5.2-input": 1234, /*Completion model Input and output tokens consumed*/
      "gpt-5.2-output": 2345,
      "text-embedding-3-large": 3456 /*Embedding tokens consumed*/
    }
  }
}

Zie de prijsinformatie voor meer informatie over hoe facturering werkt voor Content Understanding.

Inhoudsfilters en beveiligingsmaatregelen

Elke Foundry-modelimplementatie heeft een gekoppeld Guardrails-exemplaar dat inhoud evalueert op veiligheid. Content Understanding geeft de Guardrails-uitvoer rechtstreeks in de analyse-respons weer als een content_filters array. Als een Guardrails-instantie inhoud blokkeert, retourneert de analysebewerking een fout; als inhoud wordt geannoteerd, wordt het resultaat doorgegeven met bijgevoegde filtermetagegevens.

Als u de drempelwaarden voor inhoudsfilters wilt aanpassen of wilt overschakelen van blokkeren naar annoteren, werkt u de Guardrails-configuratie bij op de modelimplementatie in uw Azure AI Foundry-project. Zie voor meer informatie Inhoudsfilters en kaders en de referentie naar hetcontent_filters antwoordobject.