Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese Features und Azure Databricks Plattformverbesserungen wurden im März 2026 veröffentlicht.
Hinweis
Veröffentlichungen erfolgen stufenweise. Ihr Azure Databricks Konto wird möglicherweise erst eine Woche oder mehr nach dem ursprünglichen Veröffentlichungsdatum aktualisiert.
Agent Bricks Knowledge Assistant und Supervisor Agent sind jetzt in zusätzlichen Regionen verfügbar
31. März 2026
Knowledge Assistant ist jetzt in den folgenden zusätzlichen Azure Regionen verfügbar: westeurope, northeurope, uksouth und centralindia.
Die geoübergreifende Verarbeitung muss für uksouth und centralindia aktiviert sein.
Supervisor Agent ist jetzt in den folgenden zusätzlichen Azure Regionen verfügbar: westeurope, uksouth und centralindia.
Die geoübergreifende Verarbeitung muss für uksouth und centralindia aktiviert sein.
Die vollständige Liste der unterstützten Regionen finden Sie unter Features mit eingeschränkter regionaler Verfügbarkeit.
Databricks Connector für Google Sheets-Updates
30. März 2026
Der Databricks-Connector für Google Sheets wurde mit einem längeren Timeout für die Abfrageausführung, Verbesserungen der Benutzeroberfläche und zusätzlichen geplanten Aktualisierungseinschränkungen aktualisiert. Siehe Databricks Connector für Google Sheets.
Agent Bricks deckt jetzt alle Databricks AI-Funktionen ab
27. März 2026
Die Seite "Agent Bricks" wurde über deklarative Agents hinaus erweitert, um als Dach für alle Databricks KI-Funktionen zu dienen.
Klassifizierung und Informationsextraktion befinden sich in der öffentlichen Vorschau
27. März 2026
Zwei neue Benutzeroberflächen für die Dokumentenanalyse befinden sich jetzt in der öffentlichen Vorschau.
Klassifizierung: Eine visuelle Benutzeroberfläche zum Klassifizieren von Dokumenten in vordefinierte Kategorien. Konfigurieren und verfeinern Sie Klassifizierungslabels, sehen Sie sich die Ergebnisse in Beispieldokumenten vorab an, und führen Sie dann die Klassifizierung in großem Maßstab aus.
Informationsextraktion: Eine visuelle Benutzeroberfläche zum Extrahieren strukturierter Daten aus Dokumenten, Tabellen, PDFs und Bildern. Definieren und verfeinern Sie ein Extraktionsschema, zeigen Sie die Ergebnisse für Beispieldokumente in der Vorschau an, und extrahieren Sie anschließend im großen Maßstab.
Beide Erfahrungen basieren auf den v2-Signaturen von ai_classify und ai_extract.
ai_classify und ai_extract unterstützen jetzt v2-Signaturen (öffentliche Vorschau)
27. März 2026
Die ai_classify und ai_extract KI-Funktionen unterstützen jetzt neue v2-Signaturen mit verbesserter Qualität und Leistung, größerer Flexibilität und nahtloser Zusammensetzbarkeit mit ai_parse_document für End-to-End-Dokumentenverarbeitungs-Workflows.
Siehe ai_classify Funktion und ai_extract Funktion.
Die Typweiterung ist jetzt allgemein verfügbar.
25. März 2026
Die Typweiterung für Delta Lake-Tabellen ist jetzt allgemein verfügbar. Mit der Typverbreiterung können Sie Spaltendatentypen auf breitere Typen ändern, wie zum Beispiel von INT auf BIGINT oder von FLOAT auf DOUBLE während der Datenaufnahme, ohne die zugrunde liegenden Datendateien neu zu schreiben.
Weitere Informationen finden Sie unter Typerweiterung.
Auto Loader unterstützt die automatische Typverbreiterung (öffentliche Vorschau)
25. März 2026
Auto Loader unterstützt jetzt die automatische Typverbreiteung mit dem neuen addNewColumnsWithTypeWidening Schemaentwicklungsmodus. Dieses Feature erweitert Datentypen (z. B. int auf long oder float auf double) automatisch, ohne dass die Daten neu geschrieben oder ein Benutzereingriff erforderlich ist. Die Typverbreiterung ist für alle Dateiformate mit Schemaentwicklungsunterstützung im Auto Loader verfügbar, einschließlich Textformate (JSON, CSV, XML) und Binärformaten (Avro, Parkett).
Dieses Feature befindet sich in der öffentlichen Vorschau und erfordert DBR 16.4 oder höher. Siehe Automatisches Typen-Widening mit Auto Loader.
Neue Felder in den Metadaten von Entitäten der Systemtabelle
25. März 2026
Die entity_metadata-Struktur in den system.access.table_lineage- und system.access.column_lineage-Systemtabellen enthält jetzt die Felder genie_space_id und alert_id. Das genie_space_id Feld wird ausgefüllt, wenn der Abstammungsdatensatz aus einem Genie-Raum stammt, der Daten abfragt, und alert_id wird ausgefüllt, wenn der Abstammungsdatensatz aus einer Alarmabfrage stammt. Das vollständige Schema finden Sie in der Referenz zu Entitätsmetadaten.
Dynamische Parameter im neuen SQL-Editor
24. März 2026
Der neue SQL-Editor unterstützt jetzt einen dynamischen Dropdown-Widgettyp für benannte Parametermarkierungen. Wählen Sie eine gespeicherte Abfrage aus, um Dropdownwerte aufzufüllen, und halten Sie die Liste aktuell, während sich Ihre Daten ändern. Siehe dynamische Dropdownliste.
Supervisor-Agent unterstützt langfristige Aufgaben
21. März 2026
Der Supervisor-Agent unterstützt jetzt den lang laufenden Aufgabenmodus, der komplexe Aufgaben automatisch in mehrere Anforderungs-/Antwortzyklen unter Verwendung der Aufgabenfortsetzung aufbricht, um Timeouts zu vermeiden. Weitere Informationen finden Sie unter "Supervisor Agent long-running tasks".
Erstellen von Warnungen zur Anomalieerkennung in der Benutzeroberfläche für die Datenqualitätsüberwachung (Beta)
19. März 2026
Sie können jetzt Warnungen zur Anomalieerkennung direkt in der Azure Databricks Datenqualitätsüberwachungs-UI erstellen und anzeigen. Dieses Feature befindet sich in der Betaversion. Siehe Warnungen zur Anomalieerkennung.
AI Runtime befindet sich jetzt in der öffentlichen Vorschau
19. März 2026
Die AI-Runtime wurde für Deep Learning-Workloads entwickelt und bietet GPU-Unterstützung für serverloses Berechnen von Databricks. AI-Runtime für Einzelknotenaufgaben befindet sich jetzt in der öffentlichen Vorschau.
Die verteilte Schulungs-API für Multi-GPU-Workloads verbleibt in der Betaversion.
Siehe KI-Runtime.
SQL-Warnungsaufgabe für Aufträge (Beta)
19. März 2026
Sie können nun eine SQL-Warnungsaufgabe zu Ihren Azure Databricks Aufträgen hinzufügen, um Databricks SQL-Warnungen als Teil Ihrer Workflows auszuwerten. SQL-Warnungsaufgaben ermöglichen automatisierte Bedingungsprüfungen und Benachrichtigungen in Ihren Datenpipelinen. Siehe SQL-Warnungsaufgabe für Aufträge.
Databricks JDBC-Treiber 2.8.0 ist verfügbar
18. März 2026
Databricks JDBC-Treiber Version 2.8.0 ist jetzt zum Download verfügbar. Die neue Version enthält die folgenden Features:
- Aktualisiert die Simple Logging Facade für Java (SLF4J) von Version 1.7.36 auf 2.0.13 und verschiebt
slf4j-apiin den Stamm-Paketpfad, um der Standardnutzung von SLF4J zu entsprechen. Der Treiber hängt nicht mehr von Log4j ab. - Die
EnableTelemetryVerbindungseigenschaft ist jetzt standardmäßig aktiviert. Der Treiber sendet nur Telemetrie, wenn der Arbeitsbereich dies zulässt.
Diese Version enthält auch die folgenden Fehlerbehebungen:
- Behebt eine falsche Fehlermeldung, wenn der Treiber nicht in den konfigurierten Protokollpfad schreiben kann.
- Behebt einen Konnektivitätsfehler bei verwendung von HTTP-Proxys, die keine Authentifizierung erfordern.
Azure Databricks Nutzungsdashboard ist jetzt allgemein verfügbar.
18. März 2026
Das Verwendungsdashboard ist jetzt allgemein verfügbar. Kontoadministratoren können anpassbare, vordefinierte Nutzungsdashboards importieren, um ihre Azure Databricks Nutzung auf Konto- und Arbeitsbereichsebene zu überwachen. Weitere Informationen finden Sie unter Nutzungsdashboards.
Databricks Apps unterstützt uv für Python Abhängigkeitsverwaltung
17. März 2026
Sie können jetzt uv verwenden, um Python Abhängigkeiten in Ihren Databricks-Apps mithilfe von pyproject.toml und uv.lock zu verwalten. Siehe Define Python Abhängigkeiten mit uv und Deployment-Logik.
Suche in Metrikansichten korrigieren
17. März 2026
Die Suche nach Messwerten und Dimensionen in der Metrikansicht liefert jetzt über alle Seiten hinweg korrekte Resultate und unterstützt das Filtern nach Anzeigenamen. Siehe Metrikansichten des Unity-Katalogs.
Lakebase Autoscaling-Datenbanken als Ressourcen für Databricks Apps
16. März 2026
Sie können jetzt Lakebase Autoscaling-Datenbanken als Ressourcen für Ihre Databricks-Anwendung hinzufügen. Siehe Hinzufügen einer Lakebase-Ressource zu einer Databricks-App.
Databricks Asset Bundles sind jetzt deklarative Automatisierungs-Bundles
16. März 2026
Databricks Asset Bundles wurde in "Declarative Automation Bundles" umbenannt. Lesen Sie, warum Databricks Asset Bundles in Declarative Automation Bundles umbenannt wurden?.
Gesundheitsindikatoren für Tabellen im Katalog Explorer (Öffentliche Vorschau)
13. März 2026
Sie können nun Gesundheitsindikatoren für Tabellen auf den Seiten für Schema- und Tabellenübersicht im Katalog-Explorer (öffentliche Vorschau) einsehen. Gesundheitsindikatoren zeigen eine Zusammenfassung des Aktualitäts- und Vollständigkeitsstatus jeder Tabelle basierend auf der Anomalieerkennung. Siehe Anomalieerkennung.
Die ABAC-Richtlinienfunktionen verwenden jetzt die snake_case-Benennung.
13. März 2026
ABAC-Richtlinientagfunktionen verwenden jetzt snake_case Benennung (has_tag, has_tag_value, has_column_tag, has_column_tag_value), die mit anderen Azure Databricks integrierten SQL-Funktionen konsistent sind. Die camelCase-Formate (hasTag, hasTagValue, hasColumnTag, hasColumnTagValue) funktionieren weiterhin für die Abwärtskompatibilität, aber Databricks plant, deren Verwendung bei der Erstellung neuer Richtlinien in Zukunft einzustellen. Databricks empfiehlt, alle neuen Richtlinien so zu aktualisieren, dass die snake_case-Formulare verwendet werden. Siehe Erstellen und Verwalten von Attributbasierten Zugriffssteuerungsrichtlinien (ABAC).
Leere Vektorsuchendpunkte verursachen keine Gebühren mehr
13. März 2026
Vektor-Suchendpunkte werden jetzt erst berechnet, nachdem ein Index erstellt wurde, und 24 Stunden nach der Löschung des letzten Indexes fallen für den Endpunkt keine Gebühren mehr an.
Weitere Informationen finden Sie im Leitfaden zur Kostenverwaltung der Vektorsuche.
5X-Große SQL-Lagergröße (Beta)
13. März 2026
Die Clustergröße 5X-Large für Serverless- und Pro-SQL-Warehouses ist jetzt in Beta verfügbar. Für serverlose SQL-Lagerhäuser ist 5X-Large in allen unterstützten Regionen verfügbar. Arbeitsbereichsadministratoren können den Zugriff auf dieses Feature über die Vorschauseite steuern. Siehe Manage Azure Databricks Previews.
Weitere Informationen zur Größenanpassung von SQL Warehouse finden Sie unter SQL Warehouse-Größenanpassung, Skalierung und Warteschlangenverhalten.
Updates für die automatische Skalierung von Lakebase: OAuth-Rollenverwaltung und Budgetrichtlinien und -tags
12. März 2026
Lakebase Autoscaling umfasst jetzt die folgenden Features:
- OAuth-Rollen: Erstellen Sie OAuth-Rollen mithilfe der Lakebase-BEnutzeroberfläche oder REST-API zusätzlich zu SQL. Siehe Erstellen von Postgres-Rollen.
- Budgetrichtlinien und -tags: Ordnen Sie eine serverlose Budgetrichtlinie zu, und fügen Sie Ihrem Projekt benutzerdefinierte Tags für Kostenzuordnung und Nachverfolgung hinzu. Siehe "Projekte verwalten".
Dokumentation zur Datenqualitätsüberwachung wurde in Data Governance verschoben (Unity-Katalog)
12. März 2026
Die Dokumentation zur Datenqualitätsüberwachung wurde aus Datenhandbüchern in das Kapitel "Data Governance (Unity Catalog)" verschoben.
Neue Lakebase-Instanzen werden standardmäßig als automatisch skalierende Projekte erstellt.
12. März 2026
Neue Lakebase-Instanzen werden jetzt standardmäßig als Lakebase-Autoscaling-Projekte erstellt. Lakebase Autoscaling ist die neueste Version von Lakebase mit automatischer Berechnung, Skalierung bis Null, Verzweigung und sofortiger Wiederherstellung. Dieses Standardverhalten gilt, wenn Sie neue Instanzen mithilfe der BENUTZEROBERFLÄCHE, datenbankinstanz-API, Terraform oder SDKs erstellen. Vorhandene bereitgestellte Instanzen bleiben unverändert und behalten ihre aktuellen Verbindungszeichenfolgen und das aktuelle Verhalten bei. Weitere Informationen finden Sie "Automatisches Skalieren" unter standardmäßig.
Databricks Runtime 18.1 ist jetzt GA
11. März 2026
Databricks Runtime 18.1 ist jetzt allgemein verfügbar. Siehe Databricks Runtime 18.1 und Databricks Runtime 18.1 für Machine Learning.
Databricks Assistant ist jetzt Genie Code
11. März 2026
Databricks Assistant ist jetzt Genie Code mit erweiterten agentischen Funktionen für autonome, mehrstufige Datenaufgaben. Der Modus "Genie Code Agent" ist jetzt allgemein für Data Science, Data Engineering und Dashboarderstellung verfügbar. Siehe Genie Code.
Databricks SQL Pipelines unterstützen Benachrichtigungen und den Performance-Modus (Beta)
11. März 2026
Materialisierte Ansichten und Streamingtabellen, die in Databricks SQL definiert und geplant sind, unterstützen jetzt Fehlerbenachrichtigungen und serverlose Konfiguration des Leistungsmodus in Beta.
Siehe Planaktualisierungen in Databricks SQL.
Databricks Runtime Wartungsupdates (03/10)
10. März 2026
Neue Wartungsupdates sind für unterstützte Databricks-Runtime-Versionen verfügbar. Zu diesen Updates gehören Fehlerkorrekturen, Sicherheitspatches und Leistungsverbesserungen. Einzelheiten dazu finden Sie unter:
- Databricks Runtime 18.0
- Databricks Runtime 17.3 LTS
- Databricks Runtime 17.2
- Databricks Runtime 16.4 LTS
- Databricks Runtime 15.4 LTS
- Databricks Runtime 14.3 LTS
- Databricks Runtime 13.3 LTS
Workday HCM Connector (Beta)
9. März 2026
Der verwaltete Workday HCM-Connector in Lakeflow Connect ist jetzt in Der Betaversion verfügbar. Verwenden Sie diesen Connector, um Daten aus Workday Human Capital Management in Azure Databricks aufzunehmen. Siehe Workday Human Capital Management (HCM)-Connector.
BI-Kompatibilitätsmodus für Metrikansichten in Power BI (Beta)
9. März 2026
Der BI-Kompatibilitätsmodus für Metrikansichten in Power BI ist jetzt in Der Betaversion verfügbar. Sie können Azure Databricks Metrikansichten in Power BI mithilfe standardmäßiger SQL-Aggregationsfunktionen abfragen, indem Sie den BI-Kompatibilitätsmodus beim Erstellen einer Verbindung aktivieren. Es schreibt Aggregatfunktionen automatisch um, um die richtigen Maßdefinitionen zu verwenden. Siehe Abfragemetrikansichten aus BI-Tools.
Neue Ressourcen für Databricks-Apps
9. März 2026
Sie können jetzt weitere Databricks-Apps und Unity-Katalogtabellen als Ressourcen für Ihre Databricks-App hinzufügen. App-Ressourcen ermöglichen die App-zu-App-Kommunikation, und Tabellenressourcen bieten geregelten Zugriff auf strukturierte Daten. Siehe Hinzufügen einer Databricks-App-Ressource zu einer Databricks-App und Hinzufügen einer Unity Catalog-Tabellenressource zu einer Databricks-App.
Transaktionen mit mehreren Tabellen befinden sich jetzt in der öffentlichen Vorschau
9. März 2026
Sie können jetzt mehrere SQL-Anweisungen über mehrere Tabellen in einer einzelnen atomischen Transaktion mithilfe der BEGIN ATOMIC ... END; Syntax gruppieren. Alle Änderungen werden entweder zusammen erfolgreich durchgeführt oder zusammen zurückgesetzt, wodurch die Datenkonsistenz in Ihren Abläufen sichergestellt wird. Transaktionen mit mehreren Tabellen erfordern Katalog-Commits , die für teilnehmende Tabellen aktiviert sind und in verwalteten Delta-Tabellen im Unity-Katalog unterstützt werden.
Siehe Transaktionen.
Databricks-Apps bieten Unterstützung für die Berechnung der Kapazitätsanforderungen gemäß den Standards des Compliance-Sicherheitsprofils.
9. März 2026
Die Berechnungsgröße für Databricks-Apps unterstützt jetzt alle von Databricks unterstützten Compliance-Sicherheitsprofilstandards und ist standardmäßig für Arbeitsbereiche mit aktiviertem Compliancesicherheitsprofil verfügbar.
Eine vollständige Liste der unterstützten Compliancestandards finden Sie im Compliancesicherheitsprofil.
Eingehender Privater Link für leistungsintensive Dienste (Öffentliche Vorschau)
9. März 2026
Eingehender Private Link für leistungsintensive Dienste wie Zerobus Ingest und Lakebase Autoscaling befindet sich jetzt in der öffentlichen Vorschau. Siehe Konfigurieren eingehender Private Link für leistungsintensive Dienste.
Google Gemini 3.1 Flash Lite jetzt als databricks-gehostetes Modell verfügbar
6. März 2026
Mosaik AI Model Serving unterstützt jetzt Google Gemini 3.1 Flash Lite als databricks-gehostetes Modell.
Um auf dieses Modell zuzugreifen, verwenden Sie Folgendes:
Serverless Computing ist jetzt für IRAP- und Canada Protected B-Workloads auf Azure Databricks verfügbar.
6. März 2026
Sie können jetzt serverloses Computing für IRAP- und Canada Protected B-Workloads verwenden. Sie müssen Umgebungsversion 5 auswählen, damit Sie mit den aktivierten Compliance-Sicherheitsprofilen im serverlosen Modus starten können. Siehe klassische und serverlose Computeunterstützung nach Region.
Endpunkt-Telemetrie für benutzerdefinierte Modellbereitstellungsendpunkte (Beta)
6. März 2026
Sie können nun die Endpunkt-Telemetrie so konfigurieren, dass Protokolle, Ablaufverfolgungen und Metriken von benutzerdefinierten Modell-Endpunkten mithilfe von OpenTelemetry in Unity Catalog Delta-Tabellen gespeichert werden. Dies ermöglicht Analysen, Überwachung der Anwendungsintegrität und Compliance-Sicherung mithilfe standardmäßiger SQL-Abfragen.
Weitere Informationen finden Sie unter Persist custom model serving data to Unity Catalog.
Databricks Apps-Telemetrie (Beta)
6. März 2026
Sie können nun Telemetrie für Ihre Databricks-Apps konfigurieren, um Ablaufverfolgungen, Protokolle und Metriken zu sammeln und sie mithilfe des OpenTelemetry-Protokolls (OTel) in Unity-Katalogtabellen zu speichern. Nachdem Sie Die App-Telemetrie aktiviert haben, erfasst Databricks automatisch Systemprotokolle und Nutzungsereignisse.
Siehe Konfigurieren der Telemetrie für Databricks-Apps.
Baumansicht des Seitenbereichs des Arbeitsbereichsbrowsers (Öffentliche Vorschau)
5. März 2026
Der Seitenbereich des Arbeitsbereichsbrowsers enthält jetzt eine Strukturansicht, die eine flexible, strukturbasierte Ansicht Ihrer Arbeitsbereichsordnerhierarchie bereitstellt. Mit der Strukturansicht können Sie untergeordnete Ordner erweitern, den Stamm der Struktur ändern und in Ihrem Arbeitsbereich navigieren und gleichzeitig die Struktur stabil halten. Dies verbessert die Multi-Asset-Authoring-Erfahrung durch eine bessere Kontrolle über die Navigation im Arbeitsbereich.
Siehe Baumansicht der Seitenleiste des Arbeitsbereichs-Browsers (öffentliche Vorschau).
Lakebase ist jetzt allgemein mit Compliance-Sicherheitsprofilen verfügbar.
4. März 2026
Lakebase ist jetzt allgemein für Arbeitsbereiche mit dem Compliancesicherheitsprofil verfügbar, wenn der Compliancestandard auf HIPAA, C5, TISAX oder None festgelegt ist.
Siehe Lakebase Autoscaling-Einschränkungen.
Supervisor Agent ist jetzt in zusätzlichen Regionen verfügbar
3. März 2026
Supervisor Agent ist jetzt in zusätzlichen Regionen verfügbar. Die vollständige Liste der unterstützten Regionen finden Sie unter Features mit eingeschränkter regionaler Verfügbarkeit.
Der Wissens-Assistent ist jetzt standardmäßig für Kunden mit erweiterter Sicherheit und Compliance verfügbar.
3. März 2026
Der Wissens-Assistent ist jetzt standardmäßig für Arbeitsbereiche mit aktiviertem Compliancesicherheitsprofil und ausgewählten HIPAA-Steuerelementen verfügbar.
Verwenden Sie den Wissens-Assistenten, um einen Chatbot zu erstellen, der Fragen zu Ihren Dokumenten beantworten und qualitativ hochwertige Antworten mit Zitaten bereitstellen kann.
Verwaltete OAuth-Flüsse für externe MCP-Server
2. März 2026
Databricks stellt jetzt verwaltete OAuth-Flüsse für ausgewählte externe MCP-Server bereit, ohne dass Ihre eigene OAuth-App registriert oder Anmeldeinformationen verwaltet werden müssen. Unterstützte Anbieter sind Glean MCP, GitHub MCP, Google Drive API und SharePoint API.
Siehe Installieren eines externen MCP-Servers.
Tagging von Notizbüchern (öffentliche Vorschau)
2. März 2026
Sie können jetzt Tags auf Notizbücher anwenden, um sie für eine einfachere Verwaltung zu organisieren und zu kategorisieren. Notizbücher unterstützen auch verwaltete Tags, einschließlich Zertifizierungs- und Veraltungs-Systemtags, um Vertrauensstufen oder Lebenszyklusstatus direkt auf der Notizbuch-Oberfläche anzugeben. Siehe Anwenden von Tags auf Notizbücher.
Vom Kunden verwaltete Schlüssel für Unity-Katalog
2. März 2026
Sie können jetzt Daten in Unity-Katalogen mit Ihren eigenen Verschlüsselungsschlüsseln mithilfe von vom Kunden verwalteten Schlüsseln (CMK) schützen. Siehe vom Kunden verwaltete Schlüssel für den Unity-Katalog.
Lakebase Autoscaling bietet jetzt Hochverfügbarkeit
2. März 2026
Lakebase Autocaling umfasst jetzt hohe Verfügbarkeit. Hohe Verfügbarkeit bietet automatisches Failover von Ihrer primären Computeinstanz zu sekundären Computeinstanzen, die über Verfügbarkeitszonen verteilt sind, ohne dass Änderungen an der Verbindungszeichenfolge erforderlich sind.
Siehe Hohe Verfügbarkeit.
Lakebase ist jetzt allgemein verfügbar auf Azure
2. März 2026
Lakebase ist jetzt allgemein auf Azure verfügbar. Es ist die neueste Version von Lakebase mit automatischer Berechnung, Skalierung bis Null, Verzweigung und sofortiger Wiederherstellung. Die GA-Version erweitert die Regionsunterstützung auf 11 neue Azure Regionen zusätzlich zu den vorhandenen regionen eastus2, westeurope und westus Regionen.
Neue Regionen:
-
australiaeast(Australien Ost) -
brazilsouth(Brasilien Süd) -
canadacentral(Kanada Zentral) -
centralindia(Zentralindien) -
southcentralus(Süd-Zentral-USA) -
southeastasia(Südostasien) -
eastus(Ost-USA) -
centralus(Zentral-USA) -
northeurope(Nordeuropa) -
uksouth(Vereinigtes Königreich Süd) -
westus2(West-USA 2)
Sehen Sie "Erste Schritte mit Lakebase Autoscaling" an.
Planen von Datenaktualisierungen in Google Sheets (öffentliche Vorschau)
2. März 2026
Sie können jetzt automatische Datenaktualisierungen im Databricks Connector für Google Sheets auf stündliche, tägliche oder wöchentliche Basis planen. Siehe Plandatenaktualisierungen in Google Sheets.
Herstellen einer Verbindung mit Azure Databricks über Microsoft Excel (Öffentliche Vorschau)
2. März 2026
Das neue Azure Databricks Excel-Add-In befindet sich in der öffentlichen Vorschau und ermöglicht es Ihnen, Microsoft Excel mit Ihrem Arbeitsbereich zu verbinden, Daten aus Tabellen oder Metrikansichten zu importieren, SQL-Abfragen auszuführen und Daten direkt in Excel zu analysieren. Siehe Verbinden mit Azure Databricks aus Microsoft Excel.
Aktualisieren der Arbeitsbereich-Netzwerkkonfiguration auf VNet-Einfügung ist jetzt GA
2. März 2026
Sie können jetzt die VNet-Konfiguration (Virtual Network) eines vorhandenen Azure Databricks Arbeitsbereichs aktualisieren, um von einem Azure Databricks verwalteten VNet zu Ihrem eigenen VNet (VNet Injection) zu migrieren. Dieses Feature ist jetzt allgemein verfügbar. Siehe Aktualisieren der Netzwerkkonfiguration des Arbeitsbereichs.