Prijzen voor Azure Content Understanding in Foundry Tools

In dit artikel wordt het Azure Content Understanding in Foundry Tools-prijsmodel uitgelegd met duidelijke voorbeelden en uitsplitsingen van kosten. Meer informatie over waarvoor u kosten in rekening worden gebracht en hoe u kosten voor uw workload kunt schatten.

Zie Azure Inhoudsbegrip Prijzen voor specifieke tarieven.

Inzicht in de twee soorten kosten

Azure prijzen voor Content Understanding zijn gebaseerd op twee hoofdgebruikscategorieën:

1. Kosten voor inhoudextractie

Met inhoudsextractie wordt ongestructureerde invoer (documenten, audio, video) omgezet in gestructureerde, doorzoekbare tekst en inhoud. Deze uitvoer omvat optische tekenherkenning (OCR) voor documenten, spraak-naar-tekst voor audio/video en indelingsdetectie. U betaalt per invoereenheid die wordt verwerkt:

  • Documenten: Per 1000 pagina's
  • Audio en video: per minuut

2. Generatieve functiekosten

Wanneer u ai-functies gebruikt die grote taalmodellen (LLM's) aanroepen, worden er twee soorten kosten in rekening gebracht:

  • Contextualisatieopdrachten: Het voorbereiden van de context, het genereren van betrouwbaarheidscores, het bieden van bronverankering, en het opmaken van uitvoer. Zie Contextualisatietokens voor meer informatie.
  • Generatieve modelkosten: kosten op basis van tokens van Microsoft Foundry-modelimplementaties (LLM's voor generatie, insluitingen voor trainingsvoorbeelden). Content Understanding maakt gebruik van de Foundry-modelimplementatie die u biedt voor alle generatieve AI-gerelateerde aanroepen. U ziet geen facturering voor LLM- of embedding-tokengebruik in Content Understanding. Dat gebruik wordt weergegeven in uw Foundry-modelimplementatie. Zie Generatieve modelkosten voor meer informatie.

Generatieve functies zijn: Veldextractie, afbeeldingsanalyse, segmentatie, categorisatie, training.

Kostenvergelijking

De totale kosten voor het uitvoeren van een Content Understanding Analyzer volgen deze formule:

Total Cost = Content Extraction + Contextualization Tokens + LLM Input Tokens + LLM Output Tokens + Embeddings Tokens

Als u alleen inhoudsextractie zonder generatieve mogelijkheden gebruikt, worden alleen kosten in rekening gebracht voor inhoudextractie. Wanneer u generatieve kenmerken gebruikt, zijn alle toepasselijke kosten van toepassing.

Zo schat je uw kosten in

1. Testen met representatieve bestanden

Voer een kleine testanalyse uit met uw werkelijke bestanden en schema. Als u het werkelijke tokenverbruik wilt zien, controleert u het usage object in het antwoord van de Analyzers-API:

  "usage": {
    "documentPagesMinimal": 0, // Pages processed at the minimal level (i.e. txt, xlsx, html, and other digital file types)
    "documentPagesBasic": 0, // Pages processed at the basic level (i.e. read)
    "documentPagesStandard": 2, // Pages processed at the standard level (i.e. layout)
   
    "contextualizationToken": 2000,
    "tokens": {
      "gpt-4.1-input": 10400,
         "gpt-4.1-output": 360
    }
  }

2. Gebruik de prijscalculator voor Azure

Inhoudskennis zoeken in de Azure Prijscalculator en uw instellingen configureren:

  • Inhoudskennis toevoegen aan de calculator
  • Gebruik de testresultaten van stap 1 om het tokengemiddelden per pagina of per minuut te berekenen
  • Voer tokenaantallen in, samen met uw regio, bestandstype, verwacht volume en modelimplementatie

De calculator biedt nauwkeurige kostenprognoses voor uw workload.

Prijsvoorbeeld: Extractie van factuurvelden

Laten we na de schattingsbenadering een concreet voorbeeld handmatig doorlopen om te laten zien hoe de kosten worden berekend.

Scenario: U verwerkt facturen om gestructureerde gegevens te extraheren, zoals de naam van de leverancier, het factuurnummer, het totale bedrag en regelitems. U wilt 1000 factuurpagina's verwerken met brongronding en betrouwbaarheidsscores uitgeschakeld.

Stap 1: Testen met representatieve bestanden Na het testen van representatieve bestanden hebt u het volgende gemiddelde tokengebruik per pagina gevonden:

  • Invoertokens: 1100 per pagina
  • Uitvoertokens: 60 per pagina
  • Contextualisatie: 1000 tokens per pagina (vaste snelheid)

Voor 1000 pagina's zijn totalen gelijk aan:

  • Totaal aantal invoertokens: 1000 pagina's × 1.100 = 1.100.000 tokens
  • Totaal aantal uitvoertokens: 1000 pagina's × 60 = 60.000 tokens
  • Totaal aantal contextualisatietokens: 1000 pagina's × 1.000 = 1.000.000 tokens

Stap 2: Kosten handmatig berekenen (in plaats van de prijscalculator te gebruiken) Een globale implementatie gebruiken met de volgende prijsveronderstellingen:

Prijsveronderstellingen :

  • Inhoudsextractie: $ 5,00 per 1.000 pagina's
  • Contextualisatie: $1,00 per 1 miljoen tokens
  • Invoertokens: $ 0,40 per 1 miljoen tokens
  • Uitvoertokens: $ 1,60 per 1 miljoen tokens
  • Insluitingen: $ 0,02 per 1000 tokens. U gebruikt geen knowledge base met trainingsvoorbeelden, dus er zijn geen kosten voor insluitingen van toepassing. Als u gelabelde voorbeelden toevoegt om de nauwkeurigheid te verbeteren, voegt het systeem het gebruik van insluitingstokens toe om de tekst uit de invoerdocumenten en voltooiingstokens in te sluiten om voorbeeldgegevens te verwerken die zijn toegevoegd aan het contextvenster.

Kostenberekening:

  • Inhoudsextractie: 1.000 pagina's × $5,00 per 1.000 pagina's = $5,00
  • Contextualisatie: 1.000.000 tokens × $ 1,00 per 1 miljoen tokens = $ 1,00
  • Invoertokens: 1.100.000 tokens × $ 0,40 per 1 miljoen tokens = $ 0,44
  • Uitvoertokens: 60.000 tokens × $ 1,60 per 1 miljoen tokens = $ 0,10
  • Embeddingen: Niet gebruikt = €0,00
Total Cost = $5.00 + $1.00 + $0.44 + $0.10 + $0.00 = $6.54 per 1000 pages

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Prijzen voor Inhoudsinformatie en Azure OpenAI-prijzen voor actuele tarieven.

Gedetailleerde kostenonderdelen

Inhoudsextractie

Inhoudextractie is de essentiële eerste stap voor het transformeren van ongestructureerde invoer, ongeacht of het een document, audio of video is, in een gestandaardiseerde, herbruikbare indeling. Deze fundamentele verwerking is vereist voor alle generatieve kenmerken en kan zelfstandig worden gebruikt.

Prijzen voor inhoudextractie per modaliteit:

  • Documenten: Drie gelaagde meters (minimaal, basic of standaard) op basis van verwerkingscomplexiteit
  • Audio: Spraak-naar-teksttranscriptie (één standaardmeter, geprijsd per minuut)
  • Video: Frameextractie, opnamedetectie en transcriptie van spraak-naar-tekst (één standaardmeter, geprijsd per minuut)
  • Afbeeldingen: Er is geen inhoudsextractie beschikbaar

Meters voor het extraheren van documentinhoud

Voor documenten worden kosten in rekening gebracht voor het type verwerking dat Inhoudskennis uitvoert. Content Understanding brengt kosten in rekening op basis van het daadwerkelijke werk dat op elke pagina wordt uitgevoerd, niet de door u geselecteerde analyzer.

Minimale meter: van toepassing op digitale documenten (DOCX, XLSX, PPTX, HTML, TXT, MSG, EML) waar geen OCR- of indelingsverwerking nodig is. Deze meter is de laagste kostenoptie voor digitale documenten. Er worden kosten in rekening gebracht voor het minimale tarief, ongeacht welke analyse u gebruikt, zelfs als u een layout analyzer aanroept in een digitaal document, worden er alleen kosten in rekening gebracht voor de minimale verwerking die wordt uitgevoerd.

Basismeter: is van toepassing wanneer Inhoudsbegrip OCR-verwerking uitvoert om tekst te extraheren uit op afbeeldingen gebaseerde documenten (gescande PDF's, afbeeldingen, TIFF's) zonder indelingsanalyse.

Standaardmeter: van toepassing wanneer Content Understanding indelingsanalyse uitvoert, inclusief tabelherkenning en detectie van structurele elementen van op afbeeldingen gebaseerde documenten (gescande PDF's, afbeeldingen, TIFF's).

In de volgende tabel ziet u welke meter van toepassing is op basis van uw bestandstype en analyseniveau:

Bestandstype Lezen (Basis) Indeling (standaard)
Op afbeeldingen gebaseerd (PDF, PNG, TIFF, JPG, enzovoort) Basismeter Standaardmeter
Digitale indelingen (DOCX, XLSX, HTML, TXT, enzovoort) Minimaal meetapparaat Minimale meter

Tip

De in rekening gebrachte meter is afhankelijk van de verwerking die Content Understanding daadwerkelijk uitvoert, niet welke analyse u kiest. Digitale documenten gebruiken altijd de minimale eenheid omdat ze geen OCR- of lay-out verwerking vereisen.

Generatieve mogelijkheden

De generatieve mogelijkheden van Content Understanding maken gebruik van generatieve AI-modellen om de kwaliteit van de uitvoer te verbeteren. In de nieuwste API-versie [2025-11-01]kunt u een generatief model kiezen op basis van uw use-case.

Wanneer u generatieve mogelijkheden gebruikt, gebruikt Content Understanding de implementatie van Foundry-modellen die u opgeeft. Het tokengebruik voor de voltooiings- of insluitingsmodellen bevindt zich in die implementatie.

Contextualisatietokens

Contextualisatie is de verwerkingslaag van Content Understanding die context voorbereidt voor generatieve modellen en hun uitvoer nabewerkt tot gestructureerde eindresultaten.

Wat contextualisatie biedt:

  • De uitvoer normaliseren en formatteren in gestructureerde schema's
  • Brongronding om weer te geven waar informatie vandaan komt
  • Betrouwbaarheidsscoreberekening voor betrouwbaarheid van extractie
  • Contextengineering voor het optimaliseren van LLM-gebruik en -nauwkeurigheid

Wanneer er kosten in rekening worden gebracht: wanneer u generatieve mogelijkheden gebruikt (veldextractie, afbeeldingsanalyse, segmentatie, categorisatie, training).

Prijzen: Vaste prijs per inhoudseenheid

Contextualisatietokens worden berekend per inhoudseenheid:

Eenheden Contextualisatietokens Effectieve standaardprijs per eenheid
Per pagina 1000 contextualisatietokens $1 per 1.000 pagina's
Per afbeelding 1000 contextualisatietokens $ 1 per 1000 afbeeldingen
Per uur audio 100.000 contextualisatietokens $ 0,10 per uur
Per uur video 1.000.000 contextualisatietokens $ 1 per uur

Uitgaande van $ 1,00 per 1 miljoen contextualisatietokens.

Generatieve modelkosten (LLM)

Op tokens gebaseerde kosten van Foundry-modellen die de werkelijke veldextractie, analyse en andere generatieve mogelijkheden aandrijven.

Invoertokens zijn onder andere:

  • Geëxtraheerde tekst en transcripties
  • Afbeeldingstokens (voor visuele analyse)
  • Uw schemadefinities
  • Systeemaanwijzingen
  • Trainingsvoorbeelden (wanneer u knowledge base gebruikt)

Uitvoertokens zijn onder andere:

  • Veldwaarden en gestructureerde gegevens
  • Betrouwbaarheidsscores en brongronding
  • Analyseresultaten en beschrijvingen

Kostenoptimalisatie: kies kleinere modellen of wereldwijde implementaties voor aanzienlijke besparingen.

Kosten voor insluitingen

Op tokens gebaseerde kosten voor het insluiten van modellen die worden gebruikt bij het trainen van aangepaste analyses met gelabelde voorbeelden om de nauwkeurigheid te verbeteren.

  • Wanneer er kosten in rekening worden gebracht: alleen bij het gebruik van de trainingsfunctie met gelabelde gegevens
  • Modellen: tekst-insluiten-3-groot, tekst-insluiten-3-klein of tekst-insluiten-ada-002
  • Normaal gebruik: het hele document is ingesloten. Het gebruik kan variëren, afhankelijk van de dichtheid van tekst, maar ongeveer 1500 tokens per pagina zijn een goede initiële schatting.

Details van de generatieve functie

Er zijn verschillende generatieve kenmerken die elk iets verschillende gevolgen voor de kosten hebben.

Veldextractie

Genereert gestructureerde sleutel-waardeparen op basis van uw schemadefinitie. Voorbeelden hiervan zijn de factuurzender/ontvanger, regelitems of video-advertentie-elementen, zoals productweergave en slogan.

Gevolgen voor kosten: kostenschaal met schemacomplexiteit en inhoudsgrootte.

Afbeeldingsanalyse

Hiermee maakt u beschrijvende tekst voor afbeeldingen, grafieken en diagrammen om visuele inhoud doorzoekbaar te maken in RAG-werkstromen.

Impact op de kosten: LLM-tokens per afbeelding geanalyseerd- zowel invoertokens voor interpretatie van afbeeldingen als uitvoertokens voor beschrijvingen. Het gebruik wordt geschaald met de grootte en het aantal afbeeldingen in het document.

Segmentatie

Verdeelt documenten of video's in logische secties voor gerichte verwerking en verbeterde efficiëntie.

De impact op de kosten: kosten van outputtokens voor elk gecreëerd segment. U kunt eventueel analyzers koppelen voor verdere analyse van elk segment. Wanneer u ketent, treedt er meer inhoudsextractie en generatief gebruik op dat overeenkomt met het onafhankelijk uitvoeren van de analyses in ketens.

Categorisatie

Hiermee worden labels toegewezen aan documenten of segmenten voor classificatie en intelligente routering naar gespecialiseerde analyses.

Impact op kosten: LLM en contextualisatiekosten voor classificatie. Routeren naar een andere analyser brengt hun respectieve kosten met zich mee.

Opleiding

Bouwt aangepaste analyses met behulp van gelabelde voorbeelden voor domeinspecifieke nauwkeurigheidsverbeteringen.

Gevolgen voor de kosten: het insluiten van tokengebruik bij het toevoegen van gelabelde gegevens, plus meer LLM-tokens tijdens analyse wanneer trainingsvoorbeelden worden opgehaald en aan het model worden verstrekt.

Kennisbank

Verbetert aangepaste analyses met gelabelde trainingsvoorbeelden voor domeinspecifieke nauwkeurigheidsverbeteringen.

Gevolgen voor de kosten: het insluitingsmodel wordt gebruikt om de voorbeelden te indexeren en op te halen. Daarnaast worden LLM-tokens gebruikt tijdens de analyse wanneer trainingsvoorbeelden worden opgehaald en aan het model worden verstrekt.

Veelgestelde vragen

Wanneer worden er kosten in rekening gebracht voor LLM-gebruik?

Er worden alleen kosten in rekening gebracht voor LLM-tokens wanneer u de analyse met een Foundry-implementatie levert en een generatieve mogelijkheid gebruikt in Content Understanding. Bij analysefuncties die alleen inhoudextractie uitvoeren (bijvoorbeeld prebuilt-read, prebuilt-layoutof aangepaste analyses zonder generatieve mogelijkheden) worden er geen LLM-kosten in rekening gebracht.

Hoe weet ik welke inhoudsextractiemeter van toepassing is op mijn documenten?

De werkelijke verwerking die wordt uitgevoerd, bepaalt de meter, niet de analyse die u kiest:

  • Minimaal: Digitale documenten (DOCX, XLSX, HTML, TXT, enzovoort) gebruiken altijd minimaal, ongeacht de analyse
  • Basis: op afbeeldingen gebaseerde documenten met OCR-verwerking (Leesanalyse)
  • Standaard: documenten op basis van afbeeldingen met indelingsanalyse (Indelingsanalyse)

Voor meer informatie over meters, zie De meters voor documentinhoudextractie.

Worden er twee keer kosten in rekening gebracht voor het gebruik van Foundry-modellen?

Nee. Content Understanding maakt gebruik van de gekoppelde LLM-implementaties voor alle LLM-aanroepen en embedding-aanroepen. U wordt gefactureerd voor deze implementaties. U betaalt Content Understanding voor inhoudextractie en contextualisatie, en Foundry voor de generatieve modeltokens (invoer-/uitvoertokens en insluitingen).

Hoeveel kan ik besparen met kleinere modellen?

Als u een -mini-model kiest in plaats van standaard, kunt u de LLM-kosten met maximaal 80%verlagen. Wereldwijde implementaties bieden extra besparingen. Kosten voor inhoudextractie en contextualisatie blijven hetzelfde, ongeacht de modelkeuze.

Wat verhoogt het tokengebruik?

Verschillende functies vermenigvuldigen het tokenverbruik:

  • Bronverantwoording + betrouwbaarheidsscores: ~2x tokengebruik
  • Extractieve modus: ~1,5x tokengebruik
  • Trainingsvoorbeelden: ~2x tokengebruik
  • Segmentatie/categorisatie: ~2x tokengebruik

Worden er kosten in rekening gebracht als mijn aanvraag mislukt?

Inhoudskennis brengt geen kosten in rekening voor inhoudextractie of contextualisatie wanneer een aanvraag mislukt met een fout (zoals een 400-fout). Als de oproep van een Foundry-voltooiingsmodel vóór de fout is geslaagd, worden er kosten in rekening gebracht voor het gebruik van dat Foundry-model volgens Foundry's factureringsbeleid.

Tips voor kostenoptimalisatie

  • Beginnen met minimodellen - Minimodellen bieden aanzienlijke besparingen voor de meeste extractietaken
  • Globale implementaties gebruiken wanneer gegevenslocatie en naleving toestaan
  • Geavanceerde functies selectief inschakelen - Gebruik alleen brongrondings- en betrouwbaarheidsscores wanneer dat nodig is
  • Representatieve bestanden testen voordat u schaalt om inzicht te verkrijgen in het werkelijke tokenverbruik
  • Controleer regelmatig het gebruik via de Azure-portal om kansen voor optimalisatie te identificeren

Meer prijsvoorbeelden

Hier volgen gedetailleerde voorbeelden die laten zien hoe prijzen werken in verschillende scenario's:

Voorbeeld 1: Documentverwerking voor RAG-werkstromen

Scenario: U moet inhoud extraheren uit documenten voor een Retrieval-Augmented Generation (RAG)-oplossing. U gebruikt prebuilt-documentSearch om tekst, indeling en afbeeldingsbeschrijvingen te extraheren.

Invoer:

  • 1000 pagina's
  • Model: GPT-4.1 wereldwijde uitrol
  • Regio: Oost-VS

Uitsplitsing van prijzen:

  1. Inhoudsextractie: 1000 pagina's

    • Kosten: (1.000 / 1.000) × $ 5,00 = $ 5,00
  2. Afbeeldingsanalyse:

    Ervan uitgaande dat er twee afbeeldingen per pagina zijn. Het kost ongeveer 1000 invoer- en 200 uitvoertokens per figuur.

    • Invoertokens: 2000 cijfers × 1000 tokens/afbeelding = 2.000.000 tokens
    • Kosten: (2.000.000 / 1.000.000) × $ 2,00 = $ 4,00
    • Uitvoertokens: 2000 pagina's × 200 tokens/pagina = 400.000 tokens
    • Kosten: (400.000 / 1.000.000) × $ 8,00 = $ 3,2
  3. Contextualisatie: 1000 pagina's × 1.000 tokens/pagina = 1.000.000 tokens

    • Kosten: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00

Totale geschatte kosten: $ 5,00 + $ 4 + $ 3,2 + $ 1,00 = $ 13,20

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Content Understanding-prijzen en Azure OpenAI-prijzen voor de huidige tarieven.

Voorbeeld 2: Facturen verwerken met veldextractie

Scenario: Je automatiseert de factuurverwerking met prebuilt-invoice om gestructureerde gegevens (zoals factuurnummer, datum, leverancier, totaalbedrag, en regelitems) te extraheren.

Invoer:

  • 1000 pagina's
  • Model: GPT-4.1-mini globale implementatie (geoptimaliseerd voor kosten)
  • Functies: Extractieve modus + bronschatting + betrouwbaarheidsscores
  • Regio: Oost-VS

Uitsplitsing van prijzen:

  1. Inhoudsextractie: 1000 pagina's

    • Kosten: (1.000 / 1.000) × $ 5,00 = $ 5,00
  2. Veldextractie: met bronschatting en betrouwbaarheid ingeschakeld, is het tokengebruik ongeveer 2x meer per pagina:

    • Basisinvoertokens: 1000 pagina's × 5.200 tokens/pagina = 5.200.000 tokens
    • Kosten: (5.200.000 / 1.000.000) × $ 0,40 = $ 2,08
    • Basisuitvoertokens: 1000 pagina's × 180 tokens/pagina = 180.000 tokens
    • Kosten: (180.000 / 1.000.000) × $ 1,60 = $ 0,29
  3. Contextualisatie: 1000 pagina's × 1.000 tokens/pagina = 1.000.000 tokens

    • Kosten: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00

Totale geschatte kosten: $ 5,00 + $ 2,08 + $ 0,29 + $ 1,00 = $ 8,37

Opmerking

Het gebruik van een standaard GPT-4.1 globale implementatie in plaats van mini zou de kosten voor veldextractie met ongeveer 5x verhogen, waardoor het totaal ongeveer $ 33 bedraagt.

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Content Understanding-prijzen en Azure OpenAI-prijzen voor de huidige tarieven.

Voorbeeld 3: Video-inhoud analyseren met extractie op segmentniveau

Scenario: U extraheert een gestructureerde weergave van video-inhoud voor een RAG-toepassing. Als u gestructureerde gegevens per segment van de video wilt extraheren, kunt u prebuilt-videoSearch gebruiken. Segmenten zijn korte clips van gemiddeld 15-30 seconden, wat resulteert in talloze uitvoersegmenten met één samenvattingsveld per segment.

Invoer:

  • 60 minuten (1 uur) video
  • Model: GPT-4.1 wereldwijde uitrol
  • Regio: Oost-VS

Veronderstellingen:

  • Invoertokens: 7500 tokens per minuut (op basis van voorbeeldframes, transcriptie, schemaprompts en metaprompts)
  • Uitvoertokens: 900 tokens per minuut (uitgaande van 10-20 korte gestructureerde velden per segment met automatische segmentatie)
  • Contextualisatie: 1.000.000 tokens per uur aan video

Uitsplitsing van prijzen:

  1. Inhoudsextractie: 60 minuten

    • Kosten: 60 minuten × $ 1/uur = $ 1,00
  2. Veldextractie:

    • Invoertokens: 60 minuten × 7500 tokens/minuut = 450.000 tokens
    • Kosten: (450.000 / 1.000.000) × $ 2,00 = $ 0,90
    • Uitvoertokens: 60 minuten × 900 tokens/minuut = 54.000 tokens
    • Kosten: (54.000 / 1.000.000) × $ 8,00 = $ 0,43
  3. Contextualisatie: 1.000.000 tokens per uur

    • Kosten: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00

Totale geschatte kosten: $ 1,00 + $ 0,90 + $ 0,43 + $ 1,00 = $ 3,33

Opmerking

De werkelijke kosten variëren op basis van de specifieke gegevens van uw invoer en uitvoer. Dit transparante factureringsmodel op basis van gebruik zorgt ervoor dat u alleen betaalt voor wat u gebruikt.

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Content Understanding-prijzen en Azure OpenAI-prijzen voor de huidige tarieven.

Voorbeeld 4: Opnamen van audio-callcenters verwerken

Scenario: U analyseert callcenteropnamen met behulp van prebuilt-callCenter transcripties, spreker-diarisatie, sentimentanalyse en samenvattingen.

Invoer:

  • 60 minuten audio
  • Model: GPT-4.1-mini wereldwijde uitrol
  • Regio: Oost-VS

Uitsplitsing van prijzen:

  1. Inhoudsextractie: 60 minuten

    • Kosten: 60 minuten × $ 0,36/minuut = $ 0,36
  2. Veldextractie:

    • Invoertokens: 60 minuten × 604 tokens/minuut = 36.240 tokens
    • Kosten: (36.240 / 1.000.000) × $ 0,40 = $ 0,01
    • Uitvoertokens: 60 minuten × 19 tokens/minuut = 1.140 tokens
    • Kosten: (1.140 / 1.000.000) × $ 1,60 = $ 0,00
  3. Contextualisatie: 60 minuten × 1.667 tokens/minuut = 100.020 tokens

    • Kosten: (100.020 / 1.000.000) × $ 1,00 = $ 0,10

Totale geschatte kosten: $ 0,36 + $ 0,01 + $ 0,00 + $ 0,10 = $ 0,47

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Content Understanding-prijzen en Azure OpenAI-prijzen voor de huidige tarieven.

Voorbeeld 5: Afbeeldingen verwerken met bijschriften

Scenario: U genereert beschrijvende bijschriften voor productafbeeldingen met behulp van prebuilt-imageSearch.

Invoer:

  • 1000 afbeeldingen
  • Model: GPT-4.1 wereldwijde uitrol
  • Regio: Oost-VS

Uitsplitsing van prijzen:

  1. Inhoudsextractie: geen kosten in rekening gebracht voor afbeeldingen

    • Kosten: $ 0,00
  2. Veldextractie:

    • Invoertokens: 1000 afbeeldingen × 1.043 tokens/afbeelding = 1.043.000 tokens
    • Kosten: (1.043.000 / 1.000.000) × $ 2,00 = $ 2,09
    • Uitvoertokens: 1000 afbeeldingen × 170 tokens/afbeelding = 170.000 tokens
    • Kosten: (170.000 / 1.000.000) × $ 8,00 = $ 1,36
  3. Contextualisatie: 1000 afbeeldingen × 1.000 tokens/afbeelding = 1.000.000 tokens

    • Kosten: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00

Totale geschatte kosten: $ 0,00 + $ 2,09 + $ 1,36 + $ 1,00 = $ 4,45

Opmerking

Deze prijzen zijn alleen bedoeld ter illustratie en zijn niet bedoeld om de werkelijke kosten weer te geven. Controleer Azure Content Understanding-prijzen en Azure OpenAI-prijzen voor de huidige tarieven.

Volgende stappen