Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Utilice
Importante
Esta característica está en versión preliminar pública.
ai_query proporciona control total sobre el modelo, la solicitud y los parámetros.
Para obtener una sintaxis completa y una referencia de parámetros, consulte ai_query function.
Cuándo usar ai_query
Databricks recomienda empezar con una función de IA específica para una tarea cuando coincide con el objetivo. Se usa ai_query cuando una función específica de la tarea no satisface sus necesidades. Por ejemplo, cuando necesite:
- Controlar la indicación, los parámetros del modelo o el formato de salida de forma más precisa
- Realiza una consulta a un modelo personalizado, ajustado o externo
- Necesita flexibilidad para optimizar aún más el rendimiento o la calidad
procedimientos recomendados
- Use modelos hospedados en Databricks. Utilice puntos de conexión de modelos fundamentales hospedados en Databricks (con el prefijo
databricks-), en lugar de puntos de conexión de rendimiento aprovisionados. Estos puntos de conexión se administran completamente y se escalan automáticamente sin aprovisionamiento ni configuración. - Seleccione un modelo optimizado para la inferencia por lotes. Databricks optimiza los modelos específicos para cargas de trabajo por lotes de alto rendimiento. El uso de un modelo no optimizado puede dar lugar a tiempos de finalización de trabajos más largos y de menor rendimiento. Consulte Modelos admitidos para obtener la lista completa de modelos optimizados para lotes.
- Envíe el conjunto de datos completo en una sola consulta. Ai Functions controla automáticamente la paralelización, los reintentos y el escalado. La división manual de datos en lotes pequeños puede reducir el rendimiento.
- Establézcalo
failOnErrorafalsepara cargas de trabajo de gran tamaño. Esto permite que el trabajo complete y devuelva mensajes de error para las filas con errores, por lo que se conservan los resultados correctos sin volver a procesar todo el conjunto de datos.
Modelos admitidos
ai_query admite modelos hospedados en Databricks, modelos de rendimiento aprovisionados, modelos personalizados y modelos externos.
En la tabla siguiente se resumen los tipos de modelo admitidos, los modelos asociados y los requisitos de configuración del punto de conexión de servicio para cada uno.
| Tipo | Descripción | Modelos compatibles | Requisitos |
|---|---|---|---|
| Modelos hospedados en Databricks | Azure Databricks hospeda estos modelos básicos y ofrece puntos de conexión preconfigurados que puede consultar mediante ai_query. Consulte Modelos de base admitidos en Mosaic AI Model Serving para ver qué modelos son compatibles con cada característica de servicio de modelos y su disponibilidad de región. |
Consulte Modelos de base admitidos en Mosaic AI Model Serving para obtener la lista completa de modelos de base admitidos en Model Serving. Estos modelos son compatibles y optimizados para empezar a trabajar con flujos de trabajo de inferencia y producción por lotes:
Otros modelos hospedados en Azure Databricks están disponibles para su uso con AI Functions, pero no se recomiendan para flujos de trabajo de producción de inferencia por lotes a escala. Estos otros modelos están disponibles para la inferencia en tiempo real mediante las API de pago por token de Foundation Model. |
Databricks Runtime 15.4 LTS o superior es necesario para usar esta funcionalidad. No requiere ninguna configuración ni aprovisionamiento de puntos de conexión. El uso de estos modelos está sujeto a los términos del modelo aplicables y a la disponibilidad de la región de AI Functions. |
| Modelos de rendimiento aprovisionados | Ai Functions funciona con modelos de rendimiento aprovisionados implementados en Model Serving. |
|
|
| Modelos personalizados y modelos externos | Puede traer sus propios modelos personalizados o externos y consultarlos mediante AI Functions. AI Functions ofrece flexibilidad para poder consultar modelos para escenarios de inferencia en tiempo real o de inferencia por lotes. |
|
|
Uso ai_query con modelos de base
En el ejemplo siguiente se muestra cómo usar ai_query con un modelo de base hospedado por Azure Databricks.
- Consulte
ai_queryfunción para obtener detalles y parámetros de sintaxis. - Consulte Entradas multiplataforma para ver ejemplos de consultas de entrada multiplataforma.
- Consulte Ejemplos de escenarios avanzados para obtener instrucciones sobre cómo configurar parámetros para casos de uso avanzados, como:
-
Control de errores mediante
failOnError - Salidas estructuradas en Azure Databricks para cómo especificar la salida estructurada de las respuestas de consulta.
-
Control de errores mediante
SQL
SELECT text, ai_query(
"databricks-gpt-oss-120b",
"Summarize the given text comprehensively, covering key points and main ideas concisely while retaining relevant details and examples. Ensure clarity and accuracy without unnecessary repetition or omissions: " || text
) AS summary
FROM uc_catalog.schema.table;
Python
df_out = df.selectExpr(
"ai_query('databricks-gpt-oss-120b', CONCAT('Please provide a summary of the following text: ', text), modelParameters => named_struct('max_tokens', 100, 'temperature', 0.7)) as summary"
)
df_out.write.mode("overwrite").saveAsTable('output_table')
Cuaderno de ejemplo: inferencia por lotes y extracción de datos estructurados
En el cuaderno de ejemplo siguiente se muestra cómo realizar la extracción básica de datos estructurados mediante ai_query para transformar datos sin procesar y no estructurados en información organizada y utilizable a través de técnicas de extracción automatizadas. En este cuaderno también se muestra cómo aprovechar la Evaluación de Agentes para evaluar la precisión usando datos de referencia.
Cuaderno de inferencia por lotes y extracción de datos estructurados
Uso ai_query con modelos tradicionales de ML
ai_query admite modelos tradicionales de ML, incluidos los totalmente personalizados. Estos modelos deben implementarse en los puntos de conexión de Servicio de modelos. Para obtener detalles de sintaxis y parámetros, consulte ai_query function.
SELECT text, ai_query(
endpoint => "spam-classification",
request => named_struct(
"timestamp", timestamp,
"sender", from_number,
"text", text),
returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages
LIMIT 10
Cuaderno de ejemplo: inferencia por lotes mediante BERT para el reconocimiento de entidades con nombre
En el cuaderno siguiente se muestra un ejemplo de inferencia por lotes de modelos de ML tradicional mediante BERT.