Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Azure Content Understanding en las herramientas de Foundry usa las implementaciones del modelo Foundry para todas las operaciones que requieren un modelo de IA generativa. Este enfoque le ayuda a maximizar la capacidad aprovisionada y consolidar la capacidad en menos implementaciones, si es necesario. También puede elegir el modelo que mejor se adapte a su escenario para el precio y la latencia.
Se le facturan todos los tokens, tanto de entrada como de salida, procesados por la implementación conectada, mientras que Content Understanding solo le factura por los medidores específicos de Content Understanding. Consulte el explicador de precios para obtener más información sobre el modelo de facturación.
El servicio requiere un chat completion modelo y un embeddings modelo y admite algunas opciones diferentes para cada uno.
Modelos admitidos
El servicio se actualiza periódicamente para agregar compatibilidad con más modelos. Los modelos admitidos actualmente se enumeran en Límites de servicio: modelos generativos admitidos.
Funcionamiento de la selección de modelos
Al crear un analizador personalizado, se especifica el modelo de finalización de chat y el modelo de inserción que usa. Esta asociación se realiza mediante un alias de implementación en lugar de directamente con un nombre de implementación específico.
{
"analyzerId": "myReceipt",
"models": {
// Specifies the completion and embedding models used by this analyzer.
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
}
// Complete analyzer definition
}
Propina
GPT-4.1 es un modelo recomendado para su uso con Foundry y Studio. Puede usar cualquier modelo de finalización de chat compatible que se ajuste a sus objetivos de calidad, latencia y costo. Los modelos de inserción se usan cuando se usan ejemplos etiquetados o aprendizaje en contexto para mejorar la calidad del analizador.
Dos maneras de proporcionar implementaciones de modelos
Como cliente, tiene dos opciones:
- Opción 1: Establezca las implementaciones de modelo predeterminadas en el nivel de recurso.
- Opción 2: Pase punteros de implementación del modelo en cada solicitud de análisis.
Si establece los valores predeterminados de los recursos, puede sobrescribir esos valores predeterminados para una sola solicitud, al incluir modelDeployments en esa solicitud.
Opción 1: Establecimiento de implementaciones predeterminadas en el nivel de recurso
Después de establecer los valores predeterminados, analizar las solicitudes puede omitir modelDeployments. Elija uno de los métodos de instalación siguientes:
Use PATCH /contentunderstanding/defaults para establecer los valores predeterminados de implementación del modelo en el nivel de recurso.
PATCH /contentunderstanding/defaults
{
// Specify default model deployments as "model name": "deployment name"
"modelDeployments": {
"gpt-4.1": "gpt-4.1-deployment",
"gpt-4.1-mini": "gpt-4.1-mini",
"text-embedding-3-large": "text-embedding-3-large-deployment",
"text-embedding-ada-002": "text-embedding-ada-002"
}
}
Ejemplo de análisis de la solicitud que usa los valores predeterminados de los recursos:
POST /myReceipt:analyze
{
// No modelDeployments needed - uses resource defaults
}
Opción 2: Pasar implementaciones de modelos en cada solicitud de análisis
Use esta opción cuando quiera que cada solicitud apunte explícitamente a las implementaciones de modelos pasando un modelDeployments objeto en la solicitud de análisis. Este enfoque ofrece máxima flexibilidad para usar diferentes implementaciones para distintas solicitudes y no requiere valores predeterminados de recursos.
POST /contentunderstanding/analyzers/prebuilt-invoice:analyze
{
"inputs": [
{
"url": "https://github.com/Azure-Samples/azure-ai-content-understanding-python/raw/refs/heads/main/data/invoice.pdf"
}
],
// Specify the model deployments for this request
"modelDeployments": {
"gpt-4.1": "gpt-4.1",
"text-embedding-3-large": "text-embedding-3-large"
}
}
Los modelDeployments valores de esta solicitud de análisis invalidan los valores predeterminados que configuró en el nivel de recurso.
Datos de uso y facturación
Las respuestas de análisis incluyen una usage propiedad . Esta propiedad informa sobre el uso de tokens para tu despliegue conectado y otros medidores de uso de Content Understanding. Puede comparar estos valores con datos de uso de implementación para correlacionar el consumo de Content Understanding con la implementación del modelo.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-4.1-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Para más información sobre cómo funciona la facturación para Content Understanding, consulte el explicador de precios.
Filtrado de contenido y barreras de protección
Cada implementación del modelo de Foundry tiene una instancia de Guardrails asociada que evalúa el contenido para la seguridad. Content Understanding muestra el output de Guardrails directamente en la respuesta de análisis como una matriz content_filters. Si una instancia de Guardrails bloquea el contenido, la operación de análisis devuelve un error; si anota el contenido, el resultado pasa a través de los metadatos de filtro adjuntos.
Para ajustar los umbrales de filtro de contenido o cambiar de bloqueo a anotación, actualice la configuración de Guardrails en la implementación del modelo en el proyecto de Fundición de IA de Azure. Para obtener más información, vea Filtrado de contenido y Barreras de protección y referencia de objetos de content_filters respuesta.