Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Använd
Viktigt!
Den här funktionen finns som allmänt tillgänglig förhandsversion.
ai_query är en generell AI-funktion som gör att du kan köra frågor mot alla AI-modeller som stöds direkt från SQL eller Python. Till skillnad från uppgiftsspecifika AI Functions, som är specialbyggda och optimerade för en enda uppgift, ai_query ger dig fullständig kontroll över modellen, prompten och parametrarna.
Fullständig syntax och parameterreferens finns i ai_query funktion.
När du ska använda ai_query
Databricks rekommenderar att du börjar med en uppgiftsspecifik AI-funktion när en matchar ditt mål. Använd ai_query när en uppgiftsspecifik funktion inte uppfyller dina behov. När du till exempel behöver:
- Kontrollera prompten, modellparametrarna eller utdataformatet mer exakt
- Fråga en anpassad, finjusterad eller extern modell
- Behöver flexibilitet för att ytterligare optimera för dataflöde eller kvalitet
Metodtips
- Använd modeller som är värdbaserade på Databricks. Använd Databricks-värdtjänstbaserade grundmodellslutpunkter (prefixerade med
databricks-), i stället för tilldelade dataflödesslutpunkter. Dessa slutpunkter hanteras fullständigt och skalas automatiskt utan etablering eller konfiguration. - Välj en modell som är optimerad för batchinferens. Databricks optimerar specifika modeller för batcharbetsbelastningar med högt dataflöde. Om du använder en icke-optimerad modell kan det leda till minskat dataflöde och längre slutförandetider för jobb. Se Modeller som stöds för en fullständig lista över batchoptimerade modeller.
- Skicka din fullständiga datauppsättning i en enda fråga. AI Functions hanterar automatiskt parallellisering, återförsök och skalning. Att dela upp data i små batchar manuellt kan minska dataflödet.
- Ange
failOnErrortillfalseför stora arbetsbelastningar. På så sätt kan jobbet slutföra och returnera felmeddelanden för misslyckade rader, så att du behåller lyckade resultat utan att bearbeta hela datamängden igen.
Modeller som stöds
ai_query stöder modeller som är värdbaserade hos Databricks, modeller med tillhandahållen genomströmning, anpassade modeller och externa modeller.
I följande tabell sammanfattas de modelltyper som stöds, de associerade modellerna och modellen som betjänar konfigurationskraven för slutpunkter för var och en.
| Type | Beskrivning | Modeller som stöds | Requirements |
|---|---|---|---|
| Databricks-värdbaserade modeller | Azure Databricks är värd för dessa grundmodeller och erbjuder förkonfigurerade slutpunkter som du kan köra frågor mot med hjälp av ai_query. Se Grundmodeller som stöds på Mosaic AI Model Serving för vilka modeller stöds för varje modellserveringsfunktion och deras regiontillgänglighet. |
Se Grundmodeller som stöds i Mosaic AI Model Serving för den fullständiga listan över grundmodeller som stöds i Modellservering. Dessa modeller stöds och optimeras för att komma igång med batchinferens och produktionsarbetsflöden:
Andra Azure Databricks värdbaserade modeller är tillgängliga för användning med AI Functions, men rekommenderas inte för batchinferensproduktionsarbetsflöden i stor skala. Dessa andra modeller är tillgängliga för realtidsinferens med hjälp av Foundation Model API:er med betalning per token. |
Databricks Runtime 15.4 LTS eller senare krävs för att använda den här funktionen. Kräver ingen slutpunktsetablering eller konfiguration. Din användning av dessa modeller omfattas av tillämpliga modellvillkor och tillgänglighet för AI Functions-regionen. |
| Etablerade dataflödesmodeller | AI Functions fungerar med etablerade dataflödesmodeller som distribueras i modellservering. |
|
|
| Anpassade modeller och externa modeller | Du kan ta med egna anpassade eller externa modeller och köra frågor mot dem med hjälp av AI Functions. AI Functions erbjuder flexibilitet så att du kan köra frågor mot modeller för scenarier med slutsatsdragning i realtid eller batchinferens. |
|
|
Använda ai_query med grundmodeller
I följande exempel visas hur du använder ai_query med en grundmodell som hanteras av Azure Databricks.
- Se
ai_queryfunktionen för syntaxinformation och parametrar. - Se Multimodal-indata för exempel på multimodala indatafrågor.
- Se Exempel på avancerade scenarier för vägledning om hur du konfigurerar parametrar för avancerade användningsfall, till exempel:
-
Hantera fel med hjälp av
failOnError - Strukturerade utdata på Azure Databricks för hur du anger strukturerade utdata för dina frågesvar.
-
Hantera fel med hjälp av
SQL
SELECT text, ai_query(
"databricks-gpt-oss-120b",
"Summarize the given text comprehensively, covering key points and main ideas concisely while retaining relevant details and examples. Ensure clarity and accuracy without unnecessary repetition or omissions: " || text
) AS summary
FROM uc_catalog.schema.table;
Python
df_out = df.selectExpr(
"ai_query('databricks-gpt-oss-120b', CONCAT('Please provide a summary of the following text: ', text), modelParameters => named_struct('max_tokens', 100, 'temperature', 0.7)) as summary"
)
df_out.write.mode("overwrite").saveAsTable('output_table')
Exempel på notebook-fil: Batch-slutsatsdragning och strukturerad dataextrahering
Följande notebook-exempel visar hur du utför grundläggande strukturerad dataextrahering med hjälp av ai_query för att omvandla råa, ostrukturerade data till organiserad, användbar information via automatiserade extraheringstekniker. Den här notebook-filen visar också hur du använder agentutvärdering för att utvärdera noggrannheten med hjälp av grund sanningsdata.
Batch-slutsatsdragning och strukturerad dataextraheringsanteckningsbok
Använda ai_query med traditionella ML-modeller
ai_query stöder traditionella ML-modeller, inklusive helt anpassade modeller. Dessa modeller måste distribueras på modellserverslutpunkter. Syntaxinformation och parametrar finns i ai_query funktion.
SELECT text, ai_query(
endpoint => "spam-classification",
request => named_struct(
"timestamp", timestamp,
"sender", from_number,
"text", text),
returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages
LIMIT 10
Exempel på notebook-fil: Batch-slutsatsdragning med BERT för namngiven entitetsigenkänning
Följande notebook visar ett exempel på batchinferens för en traditionell ML-modell med BERT.