Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Gebruik
Belangrijk
Deze functie bevindt zich in openbare preview-versie.
ai_query is een functie voor algemeen gebruik AI waarmee u rechtstreeks vanuit SQL of Python query's kunt uitvoeren op elk ondersteund AI-model. In tegenstelling tot taakspecifieke AI-functies, die speciaal zijn gebouwd en geoptimaliseerd voor één taak, ai_query hebt u volledige controle over het model, de prompt en de parameters.
Zie de functie voor volledige syntaxis en parameterreferentieai_query.
Wanneer gebruikt u ai_query
Databricks raadt aan om te beginnen met een taakspecifieke AI-functie wanneer een functie overeenkomt met uw doelstelling. Gebruik ai_query deze functie wanneer een taakspecifieke functie niet aan uw behoeften voldoet. Bijvoorbeeld wanneer u het volgende moet doen:
- De prompt, modelparameters of uitvoerindeling nauwkeuriger beheren
- Een query uitvoeren op een aangepast, afgestemd of extern model
- Flexibiliteit nodig om doorvoer of kwaliteit verder te optimaliseren
Beste praktijken
- Gebruik door Databricks gehoste modellen. Gebruik databricks-gehoste basismodeleindpunten (voorafgegaan door
databricks-), in plaats van ingerichte doorvoereindpunten. Deze eindpunten worden volledig beheerd en automatisch geschaald zonder inrichting of configuratie. - Selecteer een model dat is geoptimaliseerd voor batch-inferentie. Databricks optimaliseert specifieke modellen voor batchworkloads met hoge doorvoer. Het gebruik van een niet-geoptimaliseerd model kan leiden tot verminderde doorvoer en langere voltooiingstijden voor taken. Zie Ondersteunde modellen voor de volledige lijst met batch-geoptimaliseerde modellen.
- Verzend uw volledige gegevensset in één query. AI-functies verwerken automatisch parallelle uitvoering, nieuwe pogingen en schalen. Het handmatig splitsen van gegevens in kleine batches kan de doorvoer verminderen.
- Stel
failOnErrorin opfalsevoor grote werkbelastingen. Hierdoor kan de taak foutberichten voor mislukte rijen voltooien en retourneren, zodat u geslaagde resultaten behoudt zonder de volledige gegevensset opnieuw te verwerken.
Ondersteunde modellen
ai_query ondersteunt door Databricks gehoste modellen, ingerichte doorvoermodellen, aangepaste modellen en externe modellen.
De volgende tabel bevat een overzicht van de ondersteunde modeltypen, de bijbehorende modellen en de vereisten voor de configuratie van het eindpunt voor elk model.
| Typ | Beschrijving | Ondersteunde modellen | Requirements |
|---|---|---|---|
| Door Databricks gehoste modellen | Azure Databricks host deze basismodellen en biedt vooraf geconfigureerde eindpunten die u kunt opvragen met behulp van ai_query. Zie Ondersteunde basismodellen op Mosaic AI Model Serving waarvoor modellen worden ondersteund voor elke functie Model serving en hun beschikbaarheid in de regio. |
Zie Ondersteunde basismodellen op Mosaic AI Model Serving voor de volledige lijst met ondersteunde basismodellen op Model Serving. Deze modellen worden ondersteund en geoptimaliseerd om aan de slag te gaan met batchdeductie- en productiewerkstromen:
Andere Azure Databricks-gehoste modellen zijn beschikbaar voor gebruik met AI Functions, maar worden niet aanbevolen voor productieworkflows voor grootschalige batch-inferencing. Deze andere modellen worden beschikbaar gesteld voor realtime inferentie met behulp van Foundation Model API's op basis van betaling per token. |
Databricks Runtime 15.4 LTS of hoger is vereist voor het gebruik van deze functionaliteit. Er is geen eindpuntinrichting of -configuratie vereist. Uw gebruik van deze modellen is onderhevig aan de toepasselijke modelvoorwaarden en beschikbaarheid van AI Functions-regio's. |
| Geconfigureerde doorvoercapaciteitsmodellen | AI Functions werkt met ingerichte doorvoermodellen die zijn geïmplementeerd in Model Serving. |
|
|
| Aangepaste modellen en externe modellen | U kunt uw eigen aangepaste of externe modellen meenemen en er query's op uitvoeren met BEHULP van AI Functions. AI Functions biedt flexibiliteit, zodat u query's kunt uitvoeren op modellen voor realtime inference of de batchinferencescenario's. |
|
|
Gebruiken ai_query met basismodellen
In het volgende voorbeeld ziet u hoe u ai_query gebruikt met een basismodel dat wordt gehost door Azure Databricks.
- Zie
ai_queryde functie voor syntaxisdetails en parameters. - Zie Multimodale invoerinvoer voor voorbeelden van multimodale invoerquery's.
- Zie voorbeelden voor geavanceerde scenario's voor hulp bij het configureren van parameters voor geavanceerde use cases, zoals:
-
Fouten verwerken met behulp van
failOnError - Structureerde uitvoer op Azure Databricks voor het opgeven van gestructureerde uitvoer voor uw queryantwoorden.
-
Fouten verwerken met behulp van
SQL
SELECT text, ai_query(
"databricks-gpt-oss-120b",
"Summarize the given text comprehensively, covering key points and main ideas concisely while retaining relevant details and examples. Ensure clarity and accuracy without unnecessary repetition or omissions: " || text
) AS summary
FROM uc_catalog.schema.table;
Python
df_out = df.selectExpr(
"ai_query('databricks-gpt-oss-120b', CONCAT('Please provide a summary of the following text: ', text), modelParameters => named_struct('max_tokens', 100, 'temperature', 0.7)) as summary"
)
df_out.write.mode("overwrite").saveAsTable('output_table')
Voorbeeldnotebook: Batch-inferentie en gestructureerde gegevensextractie
In het volgende voorbeeldnotitieblok ziet u hoe u eenvoudige gestructureerde gegevensextractie uitvoert met behulp van ai_query het transformeren van onbewerkte, ongestructureerde gegevens naar georganiseerde, bruikbare informatie via geautomatiseerde extractietechnieken. Dit notebook laat ook zien hoe u agentevaluatie kunt gebruiken om de nauwkeurigheid te evalueren met behulp van grondwaargegevens.
Notebook voor batchinference en gestructureerde gegevensextractie
Gebruiken ai_query met traditionele ML-modellen
ai_query ondersteunt traditionele ML-modellen, waaronder volledig aangepaste modellen. Deze modellen moeten worden geïmplementeerd op eindpunten van Model Serving. Zie de functie voor syntaxisdetails en parametersai_query.
SELECT text, ai_query(
endpoint => "spam-classification",
request => named_struct(
"timestamp", timestamp,
"sender", from_number,
"text", text),
returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages
LIMIT 10
Voorbeeldnotitieblok: Batch-inferentie met behulp van BERT voor named entity recognition
In het volgende notebook ziet u een voorbeeld van een traditioneel ML-model batch inferentie door middel van BERT.