Gebruik ai_query

Belangrijk

Deze functie bevindt zich in openbare preview-versie.

ai_query is een functie voor algemeen gebruik AI waarmee u rechtstreeks vanuit SQL of Python query's kunt uitvoeren op elk ondersteund AI-model. In tegenstelling tot taakspecifieke AI-functies, die speciaal zijn gebouwd en geoptimaliseerd voor één taak, ai_query hebt u volledige controle over het model, de prompt en de parameters.

Zie de functie voor volledige syntaxis en parameterreferentieai_query.

Wanneer gebruikt u ai_query

Databricks raadt aan om te beginnen met een taakspecifieke AI-functie wanneer een functie overeenkomt met uw doelstelling. Gebruik ai_query deze functie wanneer een taakspecifieke functie niet aan uw behoeften voldoet. Bijvoorbeeld wanneer u het volgende moet doen:

  • De prompt, modelparameters of uitvoerindeling nauwkeuriger beheren
  • Een query uitvoeren op een aangepast, afgestemd of extern model
  • Flexibiliteit nodig om doorvoer of kwaliteit verder te optimaliseren

Beslissingsstructuur voor taakspecifieke AI-functies en ai_query

Beste praktijken

  • Gebruik door Databricks gehoste modellen. Gebruik databricks-gehoste basismodeleindpunten (voorafgegaan door databricks-), in plaats van ingerichte doorvoereindpunten. Deze eindpunten worden volledig beheerd en automatisch geschaald zonder inrichting of configuratie.
  • Selecteer een model dat is geoptimaliseerd voor batch-inferentie. Databricks optimaliseert specifieke modellen voor batchworkloads met hoge doorvoer. Het gebruik van een niet-geoptimaliseerd model kan leiden tot verminderde doorvoer en langere voltooiingstijden voor taken. Zie Ondersteunde modellen voor de volledige lijst met batch-geoptimaliseerde modellen.
  • Verzend uw volledige gegevensset in één query. AI-functies verwerken automatisch parallelle uitvoering, nieuwe pogingen en schalen. Het handmatig splitsen van gegevens in kleine batches kan de doorvoer verminderen.
  • Stel failOnError in op false voor grote werkbelastingen. Hierdoor kan de taak foutberichten voor mislukte rijen voltooien en retourneren, zodat u geslaagde resultaten behoudt zonder de volledige gegevensset opnieuw te verwerken.

Ondersteunde modellen

ai_query ondersteunt door Databricks gehoste modellen, ingerichte doorvoermodellen, aangepaste modellen en externe modellen.

De volgende tabel bevat een overzicht van de ondersteunde modeltypen, de bijbehorende modellen en de vereisten voor de configuratie van het eindpunt voor elk model.

Typ Beschrijving Ondersteunde modellen Requirements
Door Databricks gehoste modellen Azure Databricks host deze basismodellen en biedt vooraf geconfigureerde eindpunten die u kunt opvragen met behulp van ai_query. Zie Ondersteunde basismodellen op Mosaic AI Model Serving waarvoor modellen worden ondersteund voor elke functie Model serving en hun beschikbaarheid in de regio. Zie Ondersteunde basismodellen op Mosaic AI Model Serving voor de volledige lijst met ondersteunde basismodellen op Model Serving. Deze modellen worden ondersteund en geoptimaliseerd om aan de slag te gaan met batchdeductie- en productiewerkstromen:
  • databricks-qwen3-next-80b-a3b-instruct
  • databricks-claude-sonnet-4
  • databricks-gpt-oss-20b
  • databricks-gpt-oss-120b
  • databricks-gemma-3-12b
  • databricks-llama-4-maverick
  • databricks-meta-llama-3-3-70b-instruct
  • databricks-meta-llama-3-1-8b-instruct
  • databricks-qwen3-embedding-0-6b
  • databricks-gte-large-en

Andere Azure Databricks-gehoste modellen zijn beschikbaar voor gebruik met AI Functions, maar worden niet aanbevolen voor productieworkflows voor grootschalige batch-inferencing. Deze andere modellen worden beschikbaar gesteld voor realtime inferentie met behulp van Foundation Model API's op basis van betaling per token.
Databricks Runtime 15.4 LTS of hoger is vereist voor het gebruik van deze functionaliteit. Er is geen eindpuntinrichting of -configuratie vereist. Uw gebruik van deze modellen is onderhevig aan de toepasselijke modelvoorwaarden en beschikbaarheid van AI Functions-regio's.
Geconfigureerde doorvoercapaciteitsmodellen AI Functions werkt met ingerichte doorvoermodellen die zijn geïmplementeerd in Model Serving.
  • Nauwkeurig afgestemde basismodellen die zijn geïmplementeerd op Model Serving
  • Ingerichte doorvoermodellen die zijn geïmplementeerd op Model Serving
  • Voor fijn-afgestemde basismodellen moet u een geconfigureerde doorvoereindpunt maken in Model Serving. Zie Gebruik ai_query met basismodellen voor notebookvoorbeelden.
  • AI Functions maakt geen gebruik van de rekenkracht die is ingericht voor het eindpunt. AI Functions beheert de schaalaanpassing die wordt gebruikt voor batch-inferencing volledig.
Aangepaste modellen en externe modellen U kunt uw eigen aangepaste of externe modellen meenemen en er query's op uitvoeren met BEHULP van AI Functions. AI Functions biedt flexibiliteit, zodat u query's kunt uitvoeren op modellen voor realtime inference of de batchinferencescenario's.

Gebruiken ai_query met basismodellen

In het volgende voorbeeld ziet u hoe u ai_query gebruikt met een basismodel dat wordt gehost door Azure Databricks.

SQL

SELECT text, ai_query(
    "databricks-gpt-oss-120b",
    "Summarize the given text comprehensively, covering key points and main ideas concisely while retaining relevant details and examples. Ensure clarity and accuracy without unnecessary repetition or omissions: " || text
) AS summary
FROM uc_catalog.schema.table;

Python

df_out = df.selectExpr(
  "ai_query('databricks-gpt-oss-120b', CONCAT('Please provide a summary of the following text: ', text), modelParameters => named_struct('max_tokens', 100, 'temperature', 0.7)) as summary"
)
df_out.write.mode("overwrite").saveAsTable('output_table')

Voorbeeldnotebook: Batch-inferentie en gestructureerde gegevensextractie

In het volgende voorbeeldnotitieblok ziet u hoe u eenvoudige gestructureerde gegevensextractie uitvoert met behulp van ai_query het transformeren van onbewerkte, ongestructureerde gegevens naar georganiseerde, bruikbare informatie via geautomatiseerde extractietechnieken. Dit notebook laat ook zien hoe u agentevaluatie kunt gebruiken om de nauwkeurigheid te evalueren met behulp van grondwaargegevens.

Notebook voor batchinference en gestructureerde gegevensextractie

Notebook krijgen

Gebruiken ai_query met traditionele ML-modellen

ai_query ondersteunt traditionele ML-modellen, waaronder volledig aangepaste modellen. Deze modellen moeten worden geïmplementeerd op eindpunten van Model Serving. Zie de functie voor syntaxisdetails en parametersai_query.

SELECT text, ai_query(
  endpoint => "spam-classification",
  request => named_struct(
    "timestamp", timestamp,
    "sender", from_number,
    "text", text),
  returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages
LIMIT 10

Voorbeeldnotitieblok: Batch-inferentie met behulp van BERT voor named entity recognition

In het volgende notebook ziet u een voorbeeld van een traditioneel ML-model batch inferentie door middel van BERT.

Batch-inferentie met behulp van BERT voor herkenning van genaamde entiteiten in notebook

Notebook krijgen