Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Azure Content Understanding dans Foundry Tools utilise vos déploiements de modèles Foundry pour toutes les opérations qui nécessitent un modèle IA génératif. Cette approche vous permet d’optimiser la capacité provisionnée et de consolider la capacité en moins de déploiements, si nécessaire. Vous pouvez également choisir le modèle qui correspond le mieux à votre scénario pour le prix et la latence.
Vous êtes facturé pour tous les jetons (entrée et sortie) traités par le déploiement connecté, et Content Understanding vous facture uniquement pour les mesures spécifiques à Content Understanding. Consultez l’explicatif de tarification pour en savoir plus sur le modèle de facturation.
Le service nécessite un chat completion modèle et un embeddings modèle et prend en charge quelques options différentes pour chacun d’eux.
Modèles pris en charge
Le service est régulièrement mis à jour pour ajouter la prise en charge d’autres modèles. Les modèles actuellement pris en charge sont répertoriés dans les limites de service : modèles générateurs pris en charge. Reportez-vous à la planification de mise hors service du modèle pour suivre l’étape du cycle de vie du modèle Foundry et la date de mise hors service.
Note
GPT-5.2 est désormais pris en charge dans tous les analyseurs Content Understanding. La prise en charge des modèles supplémentaires sera ajoutée dans les prochaines mises à jour.
Vérifier les modèles pris en charge par chaque analyseur
Différents analyseurs prennent en charge différents ensembles de modèles. Pour vérifier les modèles pris en charge par un analyseur spécifique, utilisez l’API GET analyseurs :
GET /contentunderstanding/analyzers/{analyzerId}?api-version=2025-11-01
La réponse inclut un supportedModels objet qui répertorie les modèles d’achèvement et d’incorporation valides pour cet analyseur :
{
"analyzerId": "prebuilt-invoice",
// ...
"supportedModels": {
"completion": [
"gpt-4.1",
"gpt-5.2"
],
"embedding": [
"text-embedding-3-large"
]
},
"models": {
"completion": "prebuilt-analyzer-completion",
"embedding": "prebuilt-analyzer-embedding"
}
}
Sélection de modèle pour les analyseurs prédéfinis
Les analyseurs prédéfinis utilisent des alias de modèle au lieu de noms de modèles directs dans leur models section. Cela permet au service de prendre en charge les mises à niveau de modèle sans modifier les définitions d’analyseur.
Les analyseurs prédéfinis font référence aux alias de modèles suivants :
| Alias de modèle | Utilisé par |
|---|---|
prebuilt-analyzer-completion |
Valeur par défaut pour la plupart des analyseurs prédéfinis |
prebuilt-analyzer-completion-mini |
Valeur par défaut pour les analyseurs prédéfinis sélectionnés, par exemple prebuilt-*Search |
prebuilt-analyzer-embedding |
Analyseurs prédéfinis qui nécessitent des incorporations |
Vous mappez ces alias à vos déploiements réels dans la modelDeployments configuration (consultez Définir les déploiements par défaut).
Fonctionnement de la sélection du modèle
Lorsque vous créez un analyseur personnalisé, vous pouvez spécifier le modèle d’achèvement de conversation et le modèle d’incorporation qu’il utilise.
{
"analyzerId": "myInvoice",
"models": {
// Specify the completion and embedding models for this custom analyzer by referencing the model aliases
"completion": "prebuilt-analyzer-completion",
"embedding": "prebuilt-analyzer-embedding"
},
"config": {
}
// Complete analyzer definition
}
Conseil
GPT-5.2 est un modèle recommandé pour une utilisation avec Foundry et Le Studio. Vous pouvez utiliser n’importe quel modèle d’achèvement de conversation pris en charge qui correspond à vos objectifs de qualité, de latence et de coût. Les modèles d’incorporation sont utilisés lorsque vous utilisez des exemples étiquetés ou un apprentissage en contexte pour améliorer la qualité de l’analyseur.
Deux façons de fournir des déploiements de modèles
Pour définir des déploiements de modèles, vous avez deux options :
- Option 1 : Définissez les déploiements de modèles par défaut au niveau de la ressource.
- Option 2 : Transmettez des pointeurs de déploiement de modèle dans chaque requête d’analyse.
Si vous définissez les valeurs par défaut des ressources, vous pouvez toujours remplacer ces valeurs par défaut pour une seule requête en incluant modelDeployments cette demande.
Option 1 : Définir les déploiements par défaut au niveau de la ressource
Vous pouvez connecter directement Content Understanding à votre déploiement de modèle lorsque vous appelez l’analyse via l’API. Toutefois, pour simplifier la gestion sur un ensemble d’analyseurs différents, vous pouvez gérer de manière centralisée les modèles par défaut pour tous les analyseurs sous une ressource Foundry donnée. Pour ce faire, choisissez l’une des méthodes d’installation suivantes :
Pour obtenir le flux d’intégration complet, consultez Démarrage rapide : Essayer Content Understanding Studio.
- Ouvrez Content Understanding Studio.
- Sélectionnez l’icône Paramètres dans le coin supérieur droit.
- Sélectionnez Ajouter une ressource pour ouvrir la boîte de dialogue Ajouter une nouvelle ressource connectée .
- Pour connecter une ressource, sélectionnez l’abonnement, le groupe de ressources et la ressource Foundry dans la boîte de dialogue.
- Facultatif : sélectionnez Activer le déploiement automatique pour les modèles requis si aucun déploiement par défaut n’est disponible.
- Sélectionnez Suivant, passez en revue les mappages, puis enregistrez.
Studio peut configurer les valeurs par défaut pour les modèles pris en charge tels que gpt-5.2, , gpt-4.1gpt-4.1-mini, et text-embedding-3-large. Si la ressource sélectionnée n’a pas encore les déploiements requis, Studio peut les déployer lorsque le déploiement automatique est activé.
À partir de là, vous pouvez essayer les fonctionnalités Content Understanding dans le portail web en suivant les étapes du guide de démarrage rapide.
Option 2 : Inclure des déploiements de modèles dans chaque requête d’analyse
Utilisez cette option lorsque vous souhaitez que chaque requête pointe explicitement vers les déploiements de modèles en transmettant un modelDeployments objet dans la requête d’analyse. Cette approche vous offre une flexibilité maximale pour utiliser différents déploiements pour différentes requêtes et ne nécessite pas les valeurs par défaut des ressources.
POST /contentunderstanding/analyzers/myInvoice:analyze
{
"inputs": [
{
"url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
}
],
"modelDeployments": {
"prebuilt-analyzer-completion": "myGpt52Deployment",
"prebuilt-analyzer-embedding": "myTextEmbedding3LargeDeployment"
}
}
Les modelDeployments valeurs de cette requête d’analyse remplacent les valeurs par défaut que vous avez configurées au niveau de la ressource.
Données d’utilisation et de facturation
Les réponses d’analyse incluent une usage propriété. Cette propriété signale l’utilisation des jetons pour votre déploiement connecté et d’autres compteurs d’utilisation de Content Understanding. Vous pouvez comparer ces valeurs avec les données d'utilisation liées au déploiement pour mettre en corrélation la consommation issue de Content Understanding avec votre déploiement de modèle.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-5.2-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-5.2-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Pour plus d’informations sur le fonctionnement de la facturation pour Content Understanding, consultez l’explicatif de tarification.
Filtrage de contenu et garde-fous
Chaque déploiement de modèle Foundry a une instance de garde-fous associée qui évalue le contenu pour la sécurité. Content Understanding expose la sortie des garde-fous directement dans la réponse d’analyse sous la forme d’un content_filters tableau. Si une instance guardrails bloque le contenu, l’opération d’analyse retourne une erreur ; s’il annote le contenu, le résultat passe par les métadonnées de filtre attachées.
Pour ajuster les seuils de filtre de contenu ou passer du blocage à l’annotation, mettez à jour la configuration guardrails sur le déploiement du modèle dans votre projet Azure AI Foundry. Pour plus d’informations, consultez filtrage de contenu et garde-fous et référence de l’objetcontent_filters de réponse.