Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese Features und Azure Databricks-Plattformverbesserungen wurden im August 2025 veröffentlicht.
Hinweis
Releases werden phasenweise durchgeführt. Ihr Azure Databricks-Konto wird möglicherweise erst eine Woche oder mehr nach dem ursprünglichen Veröffentlichungsdatum aktualisiert.
Interagieren mit Azure Databricks-Aufträgen in einem Power Automate Flow (Öffentliche Vorschau)
29. August 2025
Sie können jetzt mit vorhandenen Azure Databricks-Aufträgen in Power Automate interagieren. Fügen Sie dazu Ihrem Fluss eine Azure Databricks-Auftragsaktion hinzu.
Siehe Verwenden Ihrer Azure Databricks-Daten zum Erstellen von Power Automate-Flüssen.
Die Registerkarte für OLTP-Datenbanken wurde im Abschnitt Compute in Lakebase Postgres umbenannt.
29. August 2025
Die Registerkarte "OLTP-Datenbank" im Abschnitt "Compute" des Arbeitsbereichs wird in Lakebase Postgres umbenannt. Verwenden Sie diese Registerkarte, um Ihre Lakebase-Datenbankinstanzen zu erstellen und zu verwalten.
Siehe Erstellen und Verwalten einer Datenbankinstanz.
Konto SCIM 2.0-Updates
29. August 2025
Um die Stabilität zu verbessern und zukünftiges Wachstum zu unterstützen, hat Databricks die Konto SCIM-API für identitätsverwaltung wie folgt aktualisiert:
Das Aufrufen
GET with filter params filter=displayName eq value_without_quotesführt zu einem Syntaxfehler. Um diesen Fehler zu verhindern, verwenden Sie Anführungszeichen, um den Wert umzuschließen (z. Bfilter=displayName eq "value_with_quotes". ).Das Aufrufen von
GET /api/2.0/accounts/{account_id}/scim/v2/Groupsliefert keine Mitglieder mehr zurück. Durchlaufen Sie stattdessenget group details, um Mitgliedschaftsinformationen abzurufen. Weitere Informationen finden Sie unter "Gruppendetails abrufen".Das Aufrufen
PATCH /api/2.0/accounts/{account_id}/scim/v2/Groups/{id}gibt eine 204-Antwort anstelle einer 200-Antwort zurück.
Diese Änderungen gelten für neue Konten und werden in bestehenden Konten übernommen. Aktuelle Integrationen funktionieren weiterhin ohne Unterbrechung.
Nachverfolgen und Navigieren von Notizbuchläufen mit dem neuen Ausführungs-Minimap für Zellen
28. August 2025
Verwenden Sie die Minimap für die Zellenausführung, um den Fortschritt Ihres Notizbuchs auf einen Blick nachzuverfolgen. Die Minimap wird am rechten Rand angezeigt und zeigt den Ausführungszustand jeder Zelle an (übersprungen, in die Warteschlange eingereiht, ausgeführt, erfolgreich oder fehler). Zeigen Sie mit der Maus, um Zelldetails anzuzeigen, oder klicken Sie, um direkt zu einer Zelle zu springen.
Informationen zur Verwendung der Ausführungs-Minimap einer Zelle finden Sie unter Navigieren im Databricks-Notizbuch und im Datei-Editor.
Administratoren können jetzt die serverlosen Basisumgebungen eines Arbeitsbereichs verwalten (öffentliche Vorschau)
28. August 2025
Basisumgebungen sind benutzerdefinierte Umgebungsspezifikationen für serverlose Notizbücher, die eine serverlose Umgebungsversion und eine Reihe von Abhängigkeiten definieren.
Arbeitsbereichsadministratoren können jetzt die Basisumgebungen erstellen und verwalten, die in ihrem Arbeitsbereich verfügbar sind. Sie können auch eine Standardbasisumgebung für alle neuen serverlosen Notizbücher festlegen. Auf diese Weise können Arbeitsbereichsbenutzer schnell mit der Arbeit in einer konsistenten, zwischengespeicherten Umgebung beginnen.
Siehe Verwalten serverloser Arbeitsbereichsbasisumgebungen.
Synchronisierte Lakebase-Tabellen unterstützen die Synchronisierung von Apache Iceberg und Fremdtabellen im Snapshot-Modus
28. August 2025
Sie können jetzt synchronisierte Tabellen im Snapshot-Synchronisierungsmodus aus Iceberg-Tabellen oder Fremdtabellen erstellen.
Siehe Unterstützte Quelltabellen.
Externe MCP-Server befinden sich in der Betaversion
28. August 2025
Benutzer können jetzt Databricks mit externen MCP-Servern (Model Context Protocol) verbinden. Auf diese Weise können Agents auf Tools außerhalb von Databricks zugreifen.
Siehe Model Context Protocol (MCP) für Databricks.
Migrieren von Lakeflow Spark Declarative Pipelines aus dem älteren Veröffentlichungsmodus ist jetzt GA
28. August 2025
Lakeflow Spark Declarative Pipelines verfügt über einen älteren Veröffentlichungsmodus, der nur die Veröffentlichung in einem einzelnen Katalog und Schema erlaubte. Der Standardveröffentlichungsmodus ermöglicht die Veröffentlichung in mehreren Katalogen und Schemas. Die Migration vom Legacyveröffentlichungsmodus zum Standardveröffentlichungsmodus ist jetzt allgemein verfügbar.
Siehe Aktivieren des Standardveröffentlichungsmodus in einer Pipeline
Geregelte Tags sind öffentliche Vorschau
26. August 2025
Sie können jetzt geregelte Tags erstellen, um konsistente Tags für Datenressourcen wie Kataloge, Schemas und Tabellen zu erzwingen. Mithilfe von geregelten Tags definieren Administratoren die zulässigen Schlüssel und Werte und steuern, welche Benutzer und Gruppen sie Objekten zuweisen können. Dies hilft beim Standardisieren von Metadaten für die Datenklassifizierung, Kostennachverfolgung, Zugriffssteuerung und Automatisierung.
Siehe "Geregelte Tags".
Databricks Runtime 17.2 und Databricks Runtime 17.2 ML befinden sich in Der Betaversion
26. August 2025
Databricks Runtime 17.2 und Databricks Runtime 17.2 ML befinden sich jetzt in Der Betaversion. Zu diesen Versionen gehören SQL- und API-Verbesserungen, neue Migrationsoptionen sowie Zuverlässigkeits- und Leistungsverbesserungen auf der gesamten Plattform.
Siehe Databricks Runtime 17.2 (EoS) und Databricks Runtime 17.2 für Machine Learning (EoS).
Neue INSERT REPLACE Befehle (GA)
26. August 2025
INSERT REPLACE USING und INSERT REPLACE ON sind jetzt allgemein für Databricks Runtime 17.2 verfügbar. Ausführliche Informationen finden Sie in den Versionshinweisen zur Databricks Runtime 17.2.
Canada Protected B ist allgemein verfügbar (GA)
26. August 2025
CCCS Medium (Protected B) Konformität ist jetzt generell verfügbar. CcCS Medium (Protected B) Compliance bezieht sich auf die Einhaltung der Anforderungen des Kanadischen Zentrums für Cyber Security für die Behandlung und den Schutz vertraulicher Regierungsinformationen, die als "Geschützt B" klassifiziert sind.
Siehe Kanada Schutzstufe B
OAuth-Tokenverbund ist jetzt GA
26. August 2025
Der OAuth-Tokenverbund ist jetzt allgemein verfügbar. Der Tokenverbund ermöglicht Ihnen den sicheren Zugriff auf Azure Databricks-APIs mithilfe von Token von Ihrem Identitätsanbieter (IdP). Sie können Tokenverbundrichtlinien direkt in der Azure Databricks-Benutzeroberfläche konfigurieren oder die Databricks CLI oder REST-API verwenden.
Siehe Konfigurieren einer Verbundrichtlinie.
Microsoft SQL Server-Konnektor allgemeine Verfügbarkeit
26. August 2025
Der Microsoft SQL Server-Ingestion-Connector in Lakeflow Connect ist jetzt allgemein verfügbar. Siehe Konfigurieren von Microsoft SQL Server für die Aufnahme in Azure Databricks.
Neue Tabelleneigenschaft zum Steuern der Delta-Tabellenkomprimierung
26. August 2025
Sie können nun explizit den Komprimierungscodec für eine Delta-Tabelle mithilfe der delta.parquet.compression.codec Tabelleneigenschaft festlegen. Diese Eigenschaft stellt sicher, dass alle zukünftigen Schreibvorgänge in die Tabelle den ausgewählten Codec verwenden. Siehe Referenz zu Tabelleneigenschaften.
Aktualisierung der Datentypzuordnung für synchronisierte Lakebase-Tabellen
25. August 2025
Bei neu erstellten synchronisierten Tabellen werden die Typen von Quelltabellen jetzt als TIMESTAMP in den synchronisierten Tabellen zu TIMESTAMP WITH TIMEZONE zugeordnet. In vorhandenen synchronisierten Tabellen werden TIMESTAMP-Typen weiterhin TIMESTAMP WITHOUT TIMEZONE zugeordnet.
Siehe Datentypzuordnung.
Automatische Flüssigkeitsclusterung ist jetzt für Lakeflow Spark Declarative Pipelines verfügbar
25. August 2025
Sie können jetzt automatisches Flüssigkeits-Clustering mit Lakeflow Spark Declarative Pipelines verwenden. Verwenden Sie automatische Flüssigclustering mit CLUSTER BY AUTO, und Databricks wählt intelligent Clustering-Schlüssel aus, um die Abfrageleistung zu optimieren.
Siehe Automatisches Flüssigclustering, create_streaming_table, Tabelle, CREATE MATERIALIZED VIEW (Pipelines) und CREATE STREAMING TABLE (Pipelines).
Budgetrichtlinienunterstützung für Lakebase-Datenbankinstanzen und synchronisierte Tabellen (öffentliche Vorschau)
25. August 2025
Sie können nun eine Datenbankinstanz und eine synchronisierte Tabelle mit einer Budgetrichtlinie markieren, um die Abrechnungsnutzung bestimmten Richtlinien zuzuordnen. Darüber hinaus können benutzerdefinierte Tags zu einer Datenbankinstanz hinzugefügt werden, um eine differenziertere Zuordnung der Computenutzung zu Teams, Projekten oder Kostenstellen zu ermöglichen.
Siehe Aktualisieren einer serverlosen Budgetrichtlinie einer Datenbankinstanz, Erstellen einer synchronisierten Tabelle und benutzerdefinierter Tags.
Erweiterte Regionsverfügbarkeit für Databricks-Apps
25. August 2025
Databricks Apps sind jetzt in den folgenden Regionen verfügbar:
germanywestcentralbrazilsouthswitzerlandnorthcentralindiajapaneast
Anzeigen von Features mit eingeschränkter regionaler Verfügbarkeit
Salesforce Data Cloud-Konnektor für Dateifreigabe GA
22. August 2025
Der Salesforce Data Cloud File Sharing Connector ist jetzt allgemein verfügbar.
Siehe Lakehouse Federation for Salesforce Data 360 File Sharing.
Das Aktualisieren von virtuellen Netzwerkkonfigurationen des Arbeitsbereichs befindet sich jetzt in der öffentlichen Vorschau
22. August 2025
Sie können jetzt VNet-Konfigurationen (Virtual Network) für vorhandene Azure Databricks-Arbeitsbereiche aktualisieren. Dies ermöglicht Ihnen Folgendes:
- Migrieren Sie einen Arbeitsbereich von einem von Azure Databricks verwalteten VNet zu Ihrem eigenen VNet (VNet Injection).
- Verschieben eines VNet-Einfügungsarbeitsbereichs in ein neues VNet.
- Ersetzen Sie vorhandene Subnetze in einem VNet-Einfügungsarbeitsbereich.
Siehe Aktualisieren der Netzwerkkonfiguration des Arbeitsbereichs.
Erweitertes AutoVervollständigen für komplexe Datentypen in Notizbüchern
22. August 2025
Autovervollständigung in Notebooks unterstützt jetzt erweiterte Vorschläge für komplexe Datentypen, einschließlich Strukturen, Maps und Arrays in SQL-Zellen. Darüber hinaus bietet AutoVervollständigen beim Verweisen auf allgemeine Tabellenausdrücke (CTEs) SELECT * Spaltenempfehlungen basierend auf der zugrunde liegenden Tabellenstruktur.
Weitere Informationen finden Sie unter Personalisierte Autovervollständigung.
Unterstützung von deklarativen Automatisierungsbundles für Lakebase-Datenbankressourcen
21. August 2025
Sie können jetzt Lakebase-Datenbankkataloge, Instanzen und synchronisierte Tabellen in einem Bündel definieren. Dies bedeutet, dass Sie eine vollständige Datenbankumgebung mit einem Befehl bereitstellen können, anstatt Ressourcen separat einzurichten.
Wenn Sie ein Bundle mit einer Datenbankinstanz bereitstellen, wird die Instanz sofort ausgeführt.
Siehe database_catalog, database_instance und synced_database_table.
Databricks Assistant integriert in die Berechnung
21. August 2025
Benutzer können jetzt mit dem Databricks-Assistenten auf einigen Computeseiten chatten. Verwenden Sie den Chatbereich "Assistent", um Ihnen beim Erstellen einer neuen Computeressource, eines Pools und einer neuen Richtlinie zu helfen. Oder stellen Sie dem Assistenten Fragen zur Computeressource, z. B. "Ist diese Computeressource Unity-Katalog aktiviert?" oder "Was ist die aktuelle Rechenrichtlinie?"
Weitere Informationen zum Chatten mit dem Assitant finden Sie im Bereich "Tour of Genie Code". Weitere Informationen zu Computeressourcen finden Sie unter Compute.
Serverlose Rechenlaufzeit auf 17.1 aktualisiert
19. August 2025
Serverlose Berechnung für Notizbücher, Aufträge und Lakeflow Spark Declarative Pipelines verwendet jetzt eine aktualisierte Laufzeit, die ungefähr Databricks Runtime 17.1 entspricht. Siehe Versionshinweise zu Serverless Compute.
Festlegen des Run-as-Benutzers für Lakeflow Spark Declarative Pipelines
18. August 2025
Sie können nun die Identität ändern, die eine Pipeline zum Ausführen von Updates verwendet, und den Besitzer von Tabellen, die von der Pipeline veröffentlicht wurden. Mit diesem Feature können Sie einen Dienstprinzipal als "Run-as-Identity" festlegen, was sicherer und zuverlässiger ist als die Verwendung von Benutzerkonten für automatisierte Workloads. Häufige Anwendungsfälle umfassen das Wiederherstellen von Pipelines, wenn der ursprüngliche Besitzer deaktiviert wurde, und das Bereitstellen von Pipelines mit Dienstprinzipalen als bewährte Praxis.
Informationen zum Festlegen der Ausführung als Benutzer finden Sie unter Festlegen der Ausführung als Benutzer.
Mosaik AI Vector Search Reranker Öffentliche Vorschau
15. August 2025
Die Mosaik KI-Vektorsuche bietet jetzt eine Reranking an, um die Abrufqualität zu verbessern. Weitere Informationen finden Sie unter Den Reranker in einer Abfrage verwenden.
Lakeflow Spark Declarative Pipelines-Vorlage in Bundles im Arbeitsbereich (öffentliche Vorschau)
14. August 2025
Sie können nun ganz einfach eine ETL-Pipeline in einem Bündel im Arbeitsbereich erstellen, indem Sie das neue Projekt "Lakeflow Spark Declarative Pipelines" verwenden.
Siehe Neue ETL-Pipeline.
Azure Databricks Connector in Microsoft Power Platform ist jetzt allgemein verfügbar.
14. August 2025
Der Azure Databricks-Connector in Microsoft Power Platform ist jetzt allgemein verfügbar.
Siehe Azure Databricks- und Microsoft Power Platform-Integration.
Tokenbasierte Ratenbeschränkungen sind jetzt auf dem KI-Gateway verfügbar
14. August 2025
Sie können jetzt tokenbasierte Ratenbeschränkungen für Ihre Modellbereitstellungsendpunkte konfigurieren.
Informationen zur Konfiguration von Token-basierten Ratenlimits finden Sie unter Konfigurieren des KI-Gateways auf Modellendpunkten.
Databricks-gehostete Modelle für den Assistenten sind jetzt allgemein verfügbar.
14. August 2025
Der Databricks-Assistent mit von Databricks gehosteten Modellen ist jetzt allgemein auf allen Cloudplattformen verfügbar. Diese Version des Assistenten wird vollständig von Modellen unterstützt, die direkt auf der Databricks-Infrastruktur gehostet und bereitgestellt werden – ohne zusätzliche Kosten für Kunden.
Siehe von Databricks gehostete Modelle für KI-unterstützte Funktionen.
OpenAI GPT OSS-Modelle unterstützen jetzt Funktionsaufrufe
13. August 2025
Die von Databricks gehosteten Foundation-Modelle, OpenAI GPT OSS 120B und GPT OSS 20B unterstützen jetzt Funktions- und Toolaufrufe.
Siehe Funktionsaufrufe in Azure Databricks.
OpenAI GPT OSS-Modelle werden jetzt bei bereitgestelltem Durchsatz unterstützt
13. August 2025
Die von Databricks gehosteten Foundation-Modelle, OpenAI GPT OSS 120B und GPT OSS 20B, werden jetzt auf API für bereitgestellten Durchsatz von Foundation-Modellen unterstützt.
Serverlose GPU-Compute unterstützt jetzt Multinode-Workloads
13. August 2025
Serverlose GPU-Compute unterstützt jetzt Multinode-Workloads. Siehe KI-Runtime.
Aufträge für serverlose GPU-Workloads planen
13. August 2025
Sie können jetzt Aufträge für Ihre Serverless GPU Compute Workloads erstellen und planen. Siehe Aufträge (geplant).
Databricks Assistant: Benutzer- und Arbeitsbereichsanweisungen sind jetzt verfügbar
12. August 2025
Sie können nun anpassen, wie der Databricks-Assistent reagiert, indem Sie benutzerdefinierte Benutzeranweisungen hinzufügen. Leiten Sie den Assistenten mit Einstellungen, Codierungskonventionen und Antwortrichtlinien.
Administratoren können auch arbeitsbereichweite Anweisungen hinzufügen, die Vorrang vor Benutzeranweisungen haben.
Anweisungen gelten für assistentenübergreifende Erfahrungen wie Inline-Assistent, allgemeiner Chat, Vorschlagskorrektur und Bearbeitungsmodus. Weitere Informationen finden Sie unter Hinzufügen von benutzerdefinierten Anweisungen.
Single-Node Compute im Standardzugriffsmodus ist jetzt GA
12. August 2025
Rechenressourcen mit einem einzelnen Knoten im Standardzugriffsmodus stehen jetzt allgemein zur Verfügung. Diese Konfiguration ermöglicht es mehreren Benutzern, eine Computeressource mit einem einzigen Knoten mit vollständiger Benutzerisolation zu teilen. Die Berechnung mit einem einzelnen Knoten ist für kleine Aufträge oder nicht verteilte Workloads nützlich.
Siehe Rechenkonfigurationsreferenz.
Spaltenmasken werden jetzt beim Ersetzen einer Tabelle beibehalten.
12. August 2025
Wenn eine Spalte in der neuen Tabelle mit einem Spaltennamen aus der ursprünglichen Tabelle übereinstimmt, wird das vorhandene Spaltenformat jetzt beibehalten, auch wenn keine Maske angegeben ist. Diese Änderung verhindert das versehentliche Entfernen von Sicherheitsrichtlinien auf Spaltenebene während des Ersetzungsvorgangs. Zuvor wurden beim Ersetzen einer Tabelle alle vorhandenen Spaltenmasken entfernt, und nur neu definierte Masken wurden angewendet.
Diese Änderung wirkt sich auf SQL-Befehle ([CREATE OR] REPLACE TABLE), DataFrame-APIs (saveAsTable, replace, createOrReplace) und andere ähnliche Aktualisierungstabellenvorgänge aus.
Siehe Manuelles Anwenden von Zeilenfiltern und Spaltenmasken.
Zugriffsanforderungen im Unity-Katalog (öffentliche Vorschau)
11. August 2025
Sie können jetzt Self-Service-Zugriffsanforderungen im Unity-Katalog aktivieren, indem Sie Zugriffsanforderungsziele für sicherungsfähige Objekte konfigurieren.
Benutzer können den Zugriff auf Unity Catalog-Objekte anfordern, die sie entdecken. Diese Anforderungen werden an konfigurierte Ziele gesendet, z. B. E-Mails, Slack- oder Microsoft Teams-Kanäle, oder sie können an ein internes Zugriffsverwaltungssystem umgeleitet werden.
Sie können auch Standard-E-Mail-Ziele aktivieren, sodass Anforderungen automatisch zur E-Mail-Adresse des Katalogs oder Objektbesitzers wechseln, wenn kein anderes Ziel festgelegt ist. Dadurch wird sichergestellt, dass Zugriffsanforderungen auch dann übermittelt werden, wenn kein Ziel manuell für ein Objekt konfiguriert ist.
Siehe Verwalten von Zugriffsanforderungen.
Legacy-Features für neue Arbeitsbereiche deaktivieren (Öffentliche Vorschau)
11. August 2025
Mit einer neuen Kontokonsoleneinstellung können Kontoadministratoren bestimmte Legacyfeatures für neue Arbeitsbereiche deaktivieren, die in ihrem Konto erstellt wurden. Wenn festgelegt, enthalten neue Arbeitsbereiche weder das DBFS-Stammverzeichnis und dessen Einbindungen, noch den Hive-Metaspeicher, noch geteilte Compute-Ressourcen ohne Isolierung oder Databricks-Runtime-Versionen vor 13.3 LTS. Bei Bedarf können Arbeitsbereichsadministratoren diese älteren Features weiterhin über ihre Arbeitsbereichseinstellungen aktivieren.
Weitere Informationen finden Sie unter "Deaktivieren des Zugriffs auf Legacyfeatures in neuen Arbeitsbereichen".
Lakebase Public Preview standardmäßig aktiviert
11. August 2025
Die Lakebase: Managed Postgres OLTP-Datenbankvorschau ist jetzt standardmäßig aktiviert. Benutzer können mit dem Erstellen von Lakebase-Datenbankinstanzen beginnen, ohne dass Arbeitsbereichsadministratoren diese Vorschau zuerst aktivieren müssen. Administratoren können die Vorschau bei Bedarf deaktivieren.
Siehe Erstellen und Verwalten einer Datenbankinstanz und Verwalten von Azure Databricks-Vorschauen.
ServiceNow-Connector GA
8. August 2025
Der vollständig verwaltete ServiceNow-Ingestions-Connector in Lakeflow Connect ist jetzt allgemein verfügbar. Siehe Konfigurieren von ServiceNow für Azure Databricks-Aufnahme.
Erstellen externer Delta-Tabellen aus Drittanbieter-Clients (Öffentliche Vorschau)
8. August 2025
Sie können jetzt externe Unity-Katalog-Tabellen erstellen, die von Delta Lake von externen Clients und Systemen unterstützt werden, z. B. Apache Spark.
Siehe Erstellen externer Delta-Tabellen von externen Clients.
Pfad-Bereitstellung von Anmeldeinformationen (Öffentliche Vorschau)
8. August 2025
Sie können jetzt die Bereitstellung von Anmeldeinformationen für Pfade verwenden, um externen Speicherorten in Ihrem Unity Catalog-Metastore kurzlebige Anmeldeinformationen zu gewähren. Weitere Informationen finden Sie unter Verkauf von Unity Catalog-Anmeldeinformationen für den Zugriff auf externe Systeme.
Verwenden von OpenAI GPT OSS-Modellen für Batcheinschluss und strukturierte Ausgaben
7. August 2025
Die von Databricks gehosteten Foundation-Modelle, OpenAI GPT OSS 120B und GPT OSS 20B, sind jetzt für AI-Funktionen optimiert, was bedeutet, dass Sie stapelweise Inferenz mit diesen Modellen und AI-Funktionen wie ai_query() durchführen können. Inferenz-Workloads, die diese Modelle verwenden, unterstützen jetzt auch die Angabe strukturierter Ausgaben.
Databricks ODBC-Treiber 2.9.2
5. August 2025
Die Databricks ODBC-Treiberversion 2.9.2 steht jetzt auf der Downloadseite des ODBC-Treibers zum Download zur Verfügung.
Diese Version enthält die folgenden Fixes und neue Features:
- Der Prozessname wird jetzt als Standard-BenutzerAgentEintrag verwendet, wenn der BenutzerAgentEintrag nicht explizit festgelegt ist.
- Unterstützung für Databricks-Domänen
cloud.databricks.usundcloud.databricks.milhinzugefügt. - Verbesserte Erkennung und Behandlung von
timestamp_ntzSpalten über mehrere Datenquellenfunktionen hinweg, einschließlichSQLGetTypeInfo,SQLColumnsundSQLColAttribute. - Unterstützung für den CRL-Cache (Zertifikatsperrlisten) unter Windows hinzugefügt, wenn
UseSystemTruststoreaktiviert ist. - Unterstützung für Typspalten
VOIDhinzugefügt, sodassVOID-Spalten jetzt korrekt inSQLGetColumnsaufgelistet sind. - Aktivierter OAuth-Tokenaustausch für IDPs, die sich vom Host unterscheiden, wodurch der Austausch von OAuth-Zugriffstoken (einschließlich BYOT) für Databricks-internen Token ermöglicht wird.
- Unterstützung für Windows Server 2025 hinzugefügt.
- Ein Speicherleck im Treiber wurde behoben.
Diese Version enthält Upgrades auf mehrere Drittanbieterbibliotheken:
- OpenSSL wurde von 3.0.15 auf 3.0.16 aktualisiert
- libcURL wurde von 8.11.0 auf 8.12.1 aktualisiert
- Expat wurde von 2.6.3 auf 2.7.1 aktualisiert
Diese Version enthält die folgenden Verhaltensänderungen:
- Der Connector unterstützt Databricks Runtime, Version 10.4 LTS, nicht mehr.
- Die standardmäßige maximale Länge des Katalognamens und die maximale Schemanamenlänge wurden von 128 auf 1024 geändert.
- Ubuntu 20.04 wird nicht mehr unterstützt.
Vollständige Konfigurationsinformationen finden Sie im Databricks ODBC-Treiberhandbuch , das mit dem Treiberdownloadpaket installiert ist.
Power BI Azure Databricks Connector unterstützt M2M OAuth
5. August 2025
Sie können sich jetzt mit OAuth-Anmeldeinformationen (Machine-to-Machine, M2M) bei Power BI Desktop authentifizieren. Wenn Sie derzeit persönliche Zugriffstoken im Auftrag von Dienstprinzipalen verwenden, empfiehlt Azure Databricks, zur neuen Authentifizierungsoption für Clientanmeldeinformationen zu wechseln.
Siehe Konfigurieren von Dienstprinzipalen in Azure Databricks für Power BI.
OpenAI GPT OSS-Modelle jetzt auf Mosaik AI Model Serving verfügbar
5. August 2025
Mosaik AI Model Serving unterstützt jetzt openAI GPT OSS 120B und GPT OSS 20B als databricks-gehostete Foundation-Modelle. Sie können auf diese Modelle mithilfe von Foundation Model-APIs mit Zahlung pro Token zugreifen.
Azure Private Link für serverloses Computing ermöglicht nun den Zugang zu Ressourcen in Ihrem virtuellen Netzwerk (VNet) über ein Standard-Lastenausgleichsmodul und ist jetzt allgemein verfügbar.
4. August 2025
Sie können jetzt Azure Private Link zu Ressourcen in Ihrem VNet (virtuelles Netzwerk) über einen SLB(Standardlastenausgleich) von serverlosem Compute aktivieren. Siehe Konfigurieren der privaten Konnektivität mit Ressourcen in Ihrem VNet.
Aufträge im fortlaufenden Modus können jetzt Wiederholungen auf Aufgabenebene für fehlgeschlagene Vorgänge aufweisen.
11. August 2025
Aufträge, die im fortlaufenden Modus ausgeführt werden sollen, haben jetzt die Möglichkeit, einzelne Aufgaben bei Vorgangsfehlern erneut zu versuchen.
Weitere Informationen finden Sie unter Fortlaufendes Ausführen von Aufträgen.
Databricks Runtime 17.1 ist jetzt GA
1. August 2025
Databricks Runtime 17.1 ist jetzt allgemein verfügbar. Siehe Databricks Runtime 17.1 (EoS).
AI Playground ist jetzt GA
1. August 2025
AI Playground ist jetzt GA. Siehe Chatten mit LLMs und prototypischen generativen KI-Apps mit KI-Playground.
Der Bearbeitungsmodus im Assistent ermöglicht die Neustrukturierung von Code mit mehreren Zellen und weitere Funktionen.
1. August 2025
Der Databricks-Assistent unterstützt jetzt den Bearbeitungsmodus, der Schritte für die Argumentation und Bearbeitung in mehreren Zellen eines Notizbuchs ausführt. Der Bearbeitungsmodus verarbeitet komplexe, mehrstufige Aufgaben effizient, koordiniert Änderungen über mehrere Zellen hinweg, ohne dass ein manueller Eingriff oder wiederholte Aufforderung erforderlich ist.
Informationen zum Verwenden des Assistenten im Code finden Sie unter "Codierungshilfe von Genie Code".