Freigeben über


März 2026

Diese Features und Azure Databricks Plattformverbesserungen wurden im März 2026 veröffentlicht.

Hinweis

Veröffentlichungen erfolgen stufenweise. Ihr Azure Databricks Konto wird möglicherweise erst eine Woche oder mehr nach dem ursprünglichen Veröffentlichungsdatum aktualisiert.

Agent Bricks Knowledge Assistant und Supervisor Agent sind jetzt in zusätzlichen Regionen verfügbar

31. März 2026

Knowledge Assistant ist jetzt in den folgenden zusätzlichen Azure Regionen verfügbar: westeurope, northeurope, uksouth und centralindia. Die geoübergreifende Verarbeitung muss für uksouth und centralindia aktiviert sein.

Supervisor Agent ist jetzt in den folgenden zusätzlichen Azure Regionen verfügbar: westeurope, uksouth und centralindia. Die geoübergreifende Verarbeitung muss für uksouth und centralindia aktiviert sein.

Die vollständige Liste der unterstützten Regionen finden Sie unter Features mit eingeschränkter regionaler Verfügbarkeit.

Databricks Connector für Google Sheets-Updates

30. März 2026

Der Databricks-Connector für Google Sheets wurde mit einem längeren Timeout für die Abfrageausführung, Verbesserungen der Benutzeroberfläche und zusätzlichen geplanten Aktualisierungseinschränkungen aktualisiert. Siehe Databricks Connector für Google Sheets.

Agent Bricks deckt jetzt alle Databricks AI-Funktionen ab

27. März 2026

Die Seite "Agent Bricks" wurde über deklarative Agents hinaus erweitert, um als Dach für alle Databricks KI-Funktionen zu dienen.

Klassifizierung und Informationsextraktion befinden sich in der öffentlichen Vorschau

27. März 2026

Zwei neue Benutzeroberflächen für die Dokumentenanalyse befinden sich jetzt in der öffentlichen Vorschau.

  • Klassifizierung: Eine visuelle Benutzeroberfläche zum Klassifizieren von Dokumenten in vordefinierte Kategorien. Konfigurieren und verfeinern Sie Klassifizierungslabels, sehen Sie sich die Ergebnisse in Beispieldokumenten vorab an, und führen Sie dann die Klassifizierung in großem Maßstab aus.

  • Informationsextraktion: Eine visuelle Benutzeroberfläche zum Extrahieren strukturierter Daten aus Dokumenten, Tabellen, PDFs und Bildern. Definieren und verfeinern Sie ein Extraktionsschema, zeigen Sie die Ergebnisse für Beispieldokumente in der Vorschau an, und extrahieren Sie anschließend im großen Maßstab.

Beide Erfahrungen basieren auf den v2-Signaturen von ai_classify und ai_extract.

ai_classify und ai_extract unterstützen jetzt v2-Signaturen (öffentliche Vorschau)

27. März 2026

Die ai_classify und ai_extract KI-Funktionen unterstützen jetzt neue v2-Signaturen mit verbesserter Qualität und Leistung, größerer Flexibilität und nahtloser Zusammensetzbarkeit mit ai_parse_document für End-to-End-Dokumentenverarbeitungs-Workflows.

Siehe ai_classify Funktion und ai_extract Funktion.

Die Typweiterung ist jetzt allgemein verfügbar.

25. März 2026

Die Typweiterung für Delta Lake-Tabellen ist jetzt allgemein verfügbar. Mit der Typverbreiterung können Sie Spaltendatentypen auf breitere Typen ändern, wie zum Beispiel von INT auf BIGINT oder von FLOAT auf DOUBLE während der Datenaufnahme, ohne die zugrunde liegenden Datendateien neu zu schreiben.

Weitere Informationen finden Sie unter Typerweiterung.

Auto Loader unterstützt die automatische Typverbreiterung (öffentliche Vorschau)

25. März 2026

Auto Loader unterstützt jetzt die automatische Typverbreiteung mit dem neuen addNewColumnsWithTypeWidening Schemaentwicklungsmodus. Dieses Feature erweitert Datentypen (z. B. int auf long oder float auf double) automatisch, ohne dass die Daten neu geschrieben oder ein Benutzereingriff erforderlich ist. Die Typverbreiterung ist für alle Dateiformate mit Schemaentwicklungsunterstützung im Auto Loader verfügbar, einschließlich Textformate (JSON, CSV, XML) und Binärformaten (Avro, Parkett).

Dieses Feature befindet sich in der öffentlichen Vorschau und erfordert DBR 16.4 oder höher. Siehe Automatisches Typen-Widening mit Auto Loader.

Neue Felder in den Metadaten von Entitäten der Systemtabelle

25. März 2026

Die entity_metadata-Struktur in den system.access.table_lineage- und system.access.column_lineage-Systemtabellen enthält jetzt die Felder genie_space_id und alert_id. Das genie_space_id Feld wird ausgefüllt, wenn der Abstammungsdatensatz aus einem Genie-Raum stammt, der Daten abfragt, und alert_id wird ausgefüllt, wenn der Abstammungsdatensatz aus einer Alarmabfrage stammt. Das vollständige Schema finden Sie in der Referenz zu Entitätsmetadaten.

Dynamische Parameter im neuen SQL-Editor

24. März 2026

Der neue SQL-Editor unterstützt jetzt einen dynamischen Dropdown-Widgettyp für benannte Parametermarkierungen. Wählen Sie eine gespeicherte Abfrage aus, um Dropdownwerte aufzufüllen, und halten Sie die Liste aktuell, während sich Ihre Daten ändern. Siehe dynamische Dropdownliste.

Supervisor-Agent unterstützt langfristige Aufgaben

21. März 2026

Der Supervisor-Agent unterstützt jetzt den lang laufenden Aufgabenmodus, der komplexe Aufgaben automatisch in mehrere Anforderungs-/Antwortzyklen unter Verwendung der Aufgabenfortsetzung aufbricht, um Timeouts zu vermeiden. Weitere Informationen finden Sie unter "Supervisor Agent long-running tasks".

Erstellen von Warnungen zur Anomalieerkennung in der Benutzeroberfläche für die Datenqualitätsüberwachung (Beta)

19. März 2026

Sie können jetzt Warnungen zur Anomalieerkennung direkt in der Azure Databricks Datenqualitätsüberwachungs-UI erstellen und anzeigen. Dieses Feature befindet sich in der Betaversion. Siehe Warnungen zur Anomalieerkennung.

AI Runtime befindet sich jetzt in der öffentlichen Vorschau

19. März 2026

Die AI-Runtime wurde für Deep Learning-Workloads entwickelt und bietet GPU-Unterstützung für serverloses Berechnen von Databricks. AI-Runtime für Einzelknotenaufgaben befindet sich jetzt in der öffentlichen Vorschau.

Die verteilte Schulungs-API für Multi-GPU-Workloads verbleibt in der Betaversion.

Siehe KI-Runtime.

SQL-Warnungsaufgabe für Aufträge (Beta)

19. März 2026

Sie können nun eine SQL-Warnungsaufgabe zu Ihren Azure Databricks Aufträgen hinzufügen, um Databricks SQL-Warnungen als Teil Ihrer Workflows auszuwerten. SQL-Warnungsaufgaben ermöglichen automatisierte Bedingungsprüfungen und Benachrichtigungen in Ihren Datenpipelinen. Siehe SQL-Warnungsaufgabe für Aufträge.

Databricks JDBC-Treiber 2.8.0 ist verfügbar

18. März 2026

Databricks JDBC-Treiber Version 2.8.0 ist jetzt zum Download verfügbar. Die neue Version enthält die folgenden Features:

  • Aktualisiert die Simple Logging Facade für Java (SLF4J) von Version 1.7.36 auf 2.0.13 und verschiebt slf4j-api in den Stamm-Paketpfad, um der Standardnutzung von SLF4J zu entsprechen. Der Treiber hängt nicht mehr von Log4j ab.
  • Die EnableTelemetry Verbindungseigenschaft ist jetzt standardmäßig aktiviert. Der Treiber sendet nur Telemetrie, wenn der Arbeitsbereich dies zulässt.

Diese Version enthält auch die folgenden Fehlerbehebungen:

  • Behebt eine falsche Fehlermeldung, wenn der Treiber nicht in den konfigurierten Protokollpfad schreiben kann.
  • Behebt einen Konnektivitätsfehler bei verwendung von HTTP-Proxys, die keine Authentifizierung erfordern.

Azure Databricks Nutzungsdashboard ist jetzt allgemein verfügbar.

18. März 2026

Das Verwendungsdashboard ist jetzt allgemein verfügbar. Kontoadministratoren können anpassbare, vordefinierte Nutzungsdashboards importieren, um ihre Azure Databricks Nutzung auf Konto- und Arbeitsbereichsebene zu überwachen. Weitere Informationen finden Sie unter Nutzungsdashboards.

Databricks Apps unterstützt uv für Python Abhängigkeitsverwaltung

17. März 2026

Sie können jetzt uv verwenden, um Python Abhängigkeiten in Ihren Databricks-Apps mithilfe von pyproject.toml und uv.lock zu verwalten. Siehe Define Python Abhängigkeiten mit uv und Deployment-Logik.

Suche in Metrikansichten korrigieren

17. März 2026

Die Suche nach Messwerten und Dimensionen in der Metrikansicht liefert jetzt über alle Seiten hinweg korrekte Resultate und unterstützt das Filtern nach Anzeigenamen. Siehe Metrikansichten des Unity-Katalogs.

Lakebase Autoscaling-Datenbanken als Ressourcen für Databricks Apps

16. März 2026

Sie können jetzt Lakebase Autoscaling-Datenbanken als Ressourcen für Ihre Databricks-Anwendung hinzufügen. Siehe Hinzufügen einer Lakebase-Ressource zu einer Databricks-App.

Databricks Asset Bundles sind jetzt deklarative Automatisierungs-Bundles

16. März 2026

Databricks Asset Bundles wurde in "Declarative Automation Bundles" umbenannt. Lesen Sie, warum Databricks Asset Bundles in Declarative Automation Bundles umbenannt wurden?.

Gesundheitsindikatoren für Tabellen im Katalog Explorer (Öffentliche Vorschau)

13. März 2026

Sie können nun Gesundheitsindikatoren für Tabellen auf den Seiten für Schema- und Tabellenübersicht im Katalog-Explorer (öffentliche Vorschau) einsehen. Gesundheitsindikatoren zeigen eine Zusammenfassung des Aktualitäts- und Vollständigkeitsstatus jeder Tabelle basierend auf der Anomalieerkennung. Siehe Anomalieerkennung.

Die ABAC-Richtlinienfunktionen verwenden jetzt die snake_case-Benennung.

13. März 2026

ABAC-Richtlinientagfunktionen verwenden jetzt snake_case Benennung (has_tag, has_tag_value, has_column_tag, has_column_tag_value), die mit anderen Azure Databricks integrierten SQL-Funktionen konsistent sind. Die camelCase-Formate (hasTag, hasTagValue, hasColumnTag, hasColumnTagValue) funktionieren weiterhin für die Abwärtskompatibilität, aber Databricks plant, deren Verwendung bei der Erstellung neuer Richtlinien in Zukunft einzustellen. Databricks empfiehlt, alle neuen Richtlinien so zu aktualisieren, dass die snake_case-Formulare verwendet werden. Siehe Erstellen und Verwalten von Attributbasierten Zugriffssteuerungsrichtlinien (ABAC).

Leere Vektorsuchendpunkte verursachen keine Gebühren mehr

13. März 2026

Vektor-Suchendpunkte werden jetzt erst berechnet, nachdem ein Index erstellt wurde, und 24 Stunden nach der Löschung des letzten Indexes fallen für den Endpunkt keine Gebühren mehr an.

Weitere Informationen finden Sie im Leitfaden zur Kostenverwaltung der Vektorsuche.

5X-Große SQL-Lagergröße (Beta)

13. März 2026

Die Clustergröße 5X-Large für Serverless- und Pro-SQL-Warehouses ist jetzt in Beta verfügbar. Für serverlose SQL-Lagerhäuser ist 5X-Large in allen unterstützten Regionen verfügbar. Arbeitsbereichsadministratoren können den Zugriff auf dieses Feature über die Vorschauseite steuern. Siehe Manage Azure Databricks Previews.

Weitere Informationen zur Größenanpassung von SQL Warehouse finden Sie unter SQL Warehouse-Größenanpassung, Skalierung und Warteschlangenverhalten.

Updates für die automatische Skalierung von Lakebase: OAuth-Rollenverwaltung und Budgetrichtlinien und -tags

12. März 2026

Lakebase Autoscaling umfasst jetzt die folgenden Features:

  • OAuth-Rollen: Erstellen Sie OAuth-Rollen mithilfe der Lakebase-BEnutzeroberfläche oder REST-API zusätzlich zu SQL. Siehe Erstellen von Postgres-Rollen.
  • Budgetrichtlinien und -tags: Ordnen Sie eine serverlose Budgetrichtlinie zu, und fügen Sie Ihrem Projekt benutzerdefinierte Tags für Kostenzuordnung und Nachverfolgung hinzu. Siehe "Projekte verwalten".

Dokumentation zur Datenqualitätsüberwachung wurde in Data Governance verschoben (Unity-Katalog)

12. März 2026

Die Dokumentation zur Datenqualitätsüberwachung wurde aus Datenhandbüchern in das Kapitel "Data Governance (Unity Catalog)" verschoben.

Neue Lakebase-Instanzen werden standardmäßig als automatisch skalierende Projekte erstellt.

12. März 2026

Neue Lakebase-Instanzen werden jetzt standardmäßig als Lakebase-Autoscaling-Projekte erstellt. Lakebase Autoscaling ist die neueste Version von Lakebase mit automatischer Berechnung, Skalierung bis Null, Verzweigung und sofortiger Wiederherstellung. Dieses Standardverhalten gilt, wenn Sie neue Instanzen mithilfe der BENUTZEROBERFLÄCHE, datenbankinstanz-API, Terraform oder SDKs erstellen. Vorhandene bereitgestellte Instanzen bleiben unverändert und behalten ihre aktuellen Verbindungszeichenfolgen und das aktuelle Verhalten bei. Weitere Informationen finden Sie "Automatisches Skalieren" unter standardmäßig.

Databricks Runtime 18.1 ist jetzt GA

11. März 2026

Databricks Runtime 18.1 ist jetzt allgemein verfügbar. Siehe Databricks Runtime 18.1 und Databricks Runtime 18.1 für Machine Learning.

Databricks Assistant ist jetzt Genie Code

11. März 2026

Databricks Assistant ist jetzt Genie Code mit erweiterten agentischen Funktionen für autonome, mehrstufige Datenaufgaben. Der Modus "Genie Code Agent" ist jetzt allgemein für Data Science, Data Engineering und Dashboarderstellung verfügbar. Siehe Genie Code.

Databricks SQL Pipelines unterstützen Benachrichtigungen und den Performance-Modus (Beta)

11. März 2026

Materialisierte Ansichten und Streamingtabellen, die in Databricks SQL definiert und geplant sind, unterstützen jetzt Fehlerbenachrichtigungen und serverlose Konfiguration des Leistungsmodus in Beta.

Siehe Planaktualisierungen in Databricks SQL.

Databricks Runtime Wartungsupdates (03/10)

10. März 2026

Neue Wartungsupdates sind für unterstützte Databricks-Runtime-Versionen verfügbar. Zu diesen Updates gehören Fehlerkorrekturen, Sicherheitspatches und Leistungsverbesserungen. Einzelheiten dazu finden Sie unter:

Workday HCM Connector (Beta)

9. März 2026

Der verwaltete Workday HCM-Connector in Lakeflow Connect ist jetzt in Der Betaversion verfügbar. Verwenden Sie diesen Connector, um Daten aus Workday Human Capital Management in Azure Databricks aufzunehmen. Siehe Workday Human Capital Management (HCM)-Connector.

BI-Kompatibilitätsmodus für Metrikansichten in Power BI (Beta)

9. März 2026

Der BI-Kompatibilitätsmodus für Metrikansichten in Power BI ist jetzt in Der Betaversion verfügbar. Sie können Azure Databricks Metrikansichten in Power BI mithilfe standardmäßiger SQL-Aggregationsfunktionen abfragen, indem Sie den BI-Kompatibilitätsmodus beim Erstellen einer Verbindung aktivieren. Es schreibt Aggregatfunktionen automatisch um, um die richtigen Maßdefinitionen zu verwenden. Siehe Abfragemetrikansichten aus BI-Tools.

Neue Ressourcen für Databricks-Apps

9. März 2026

Sie können jetzt weitere Databricks-Apps und Unity-Katalogtabellen als Ressourcen für Ihre Databricks-App hinzufügen. App-Ressourcen ermöglichen die App-zu-App-Kommunikation, und Tabellenressourcen bieten geregelten Zugriff auf strukturierte Daten. Siehe Hinzufügen einer Databricks-App-Ressource zu einer Databricks-App und Hinzufügen einer Unity Catalog-Tabellenressource zu einer Databricks-App.

Transaktionen mit mehreren Tabellen befinden sich jetzt in der öffentlichen Vorschau

9. März 2026

Sie können jetzt mehrere SQL-Anweisungen über mehrere Tabellen in einer einzelnen atomischen Transaktion mithilfe der BEGIN ATOMIC ... END; Syntax gruppieren. Alle Änderungen werden entweder zusammen erfolgreich durchgeführt oder zusammen zurückgesetzt, wodurch die Datenkonsistenz in Ihren Abläufen sichergestellt wird. Transaktionen mit mehreren Tabellen erfordern Katalog-Commits , die für teilnehmende Tabellen aktiviert sind und in verwalteten Delta-Tabellen im Unity-Katalog unterstützt werden.

Siehe Transaktionen.

Databricks-Apps bieten Unterstützung für die Berechnung der Kapazitätsanforderungen gemäß den Standards des Compliance-Sicherheitsprofils.

9. März 2026

Die Berechnungsgröße für Databricks-Apps unterstützt jetzt alle von Databricks unterstützten Compliance-Sicherheitsprofilstandards und ist standardmäßig für Arbeitsbereiche mit aktiviertem Compliancesicherheitsprofil verfügbar.

Eine vollständige Liste der unterstützten Compliancestandards finden Sie im Compliancesicherheitsprofil.

9. März 2026

Eingehender Private Link für leistungsintensive Dienste wie Zerobus Ingest und Lakebase Autoscaling befindet sich jetzt in der öffentlichen Vorschau. Siehe Konfigurieren eingehender Private Link für leistungsintensive Dienste.

Google Gemini 3.1 Flash Lite jetzt als databricks-gehostetes Modell verfügbar

6. März 2026

Mosaik AI Model Serving unterstützt jetzt Google Gemini 3.1 Flash Lite als databricks-gehostetes Modell.

Um auf dieses Modell zuzugreifen, verwenden Sie Folgendes:

Serverless Computing ist jetzt für IRAP- und Canada Protected B-Workloads auf Azure Databricks verfügbar.

6. März 2026

Sie können jetzt serverloses Computing für IRAP- und Canada Protected B-Workloads verwenden. Sie müssen Umgebungsversion 5 auswählen, damit Sie mit den aktivierten Compliance-Sicherheitsprofilen im serverlosen Modus starten können. Siehe klassische und serverlose Computeunterstützung nach Region.

Endpunkt-Telemetrie für benutzerdefinierte Modellbereitstellungsendpunkte (Beta)

6. März 2026

Sie können nun die Endpunkt-Telemetrie so konfigurieren, dass Protokolle, Ablaufverfolgungen und Metriken von benutzerdefinierten Modell-Endpunkten mithilfe von OpenTelemetry in Unity Catalog Delta-Tabellen gespeichert werden. Dies ermöglicht Analysen, Überwachung der Anwendungsintegrität und Compliance-Sicherung mithilfe standardmäßiger SQL-Abfragen.

Weitere Informationen finden Sie unter Persist custom model serving data to Unity Catalog.

Databricks Apps-Telemetrie (Beta)

6. März 2026

Sie können nun Telemetrie für Ihre Databricks-Apps konfigurieren, um Ablaufverfolgungen, Protokolle und Metriken zu sammeln und sie mithilfe des OpenTelemetry-Protokolls (OTel) in Unity-Katalogtabellen zu speichern. Nachdem Sie Die App-Telemetrie aktiviert haben, erfasst Databricks automatisch Systemprotokolle und Nutzungsereignisse.

Siehe Konfigurieren der Telemetrie für Databricks-Apps.

Baumansicht des Seitenbereichs des Arbeitsbereichsbrowsers (Öffentliche Vorschau)

5. März 2026

Der Seitenbereich des Arbeitsbereichsbrowsers enthält jetzt eine Strukturansicht, die eine flexible, strukturbasierte Ansicht Ihrer Arbeitsbereichsordnerhierarchie bereitstellt. Mit der Strukturansicht können Sie untergeordnete Ordner erweitern, den Stamm der Struktur ändern und in Ihrem Arbeitsbereich navigieren und gleichzeitig die Struktur stabil halten. Dies verbessert die Multi-Asset-Authoring-Erfahrung durch eine bessere Kontrolle über die Navigation im Arbeitsbereich.

Siehe Baumansicht der Seitenleiste des Arbeitsbereichs-Browsers (öffentliche Vorschau).

Lakebase ist jetzt allgemein mit Compliance-Sicherheitsprofilen verfügbar.

4. März 2026

Lakebase ist jetzt allgemein für Arbeitsbereiche mit dem Compliancesicherheitsprofil verfügbar, wenn der Compliancestandard auf HIPAA, C5, TISAX oder None festgelegt ist.

Siehe Lakebase Autoscaling-Einschränkungen.

Supervisor Agent ist jetzt in zusätzlichen Regionen verfügbar

3. März 2026

Supervisor Agent ist jetzt in zusätzlichen Regionen verfügbar. Die vollständige Liste der unterstützten Regionen finden Sie unter Features mit eingeschränkter regionaler Verfügbarkeit.

Der Wissens-Assistent ist jetzt standardmäßig für Kunden mit erweiterter Sicherheit und Compliance verfügbar.

3. März 2026

Der Wissens-Assistent ist jetzt standardmäßig für Arbeitsbereiche mit aktiviertem Compliancesicherheitsprofil und ausgewählten HIPAA-Steuerelementen verfügbar.

Verwenden Sie den Wissens-Assistenten, um einen Chatbot zu erstellen, der Fragen zu Ihren Dokumenten beantworten und qualitativ hochwertige Antworten mit Zitaten bereitstellen kann.

Sehen Sie sich den Wissens-Assistenten an, um einen qualitativ hochwertigen Chatbot mit Ihren Dokumenten zu erstellen.

Verwaltete OAuth-Flüsse für externe MCP-Server

2. März 2026

Databricks stellt jetzt verwaltete OAuth-Flüsse für ausgewählte externe MCP-Server bereit, ohne dass Ihre eigene OAuth-App registriert oder Anmeldeinformationen verwaltet werden müssen. Unterstützte Anbieter sind Glean MCP, GitHub MCP, Google Drive API und SharePoint API.

Siehe Installieren eines externen MCP-Servers.

Tagging von Notizbüchern (öffentliche Vorschau)

2. März 2026

Sie können jetzt Tags auf Notizbücher anwenden, um sie für eine einfachere Verwaltung zu organisieren und zu kategorisieren. Notizbücher unterstützen auch verwaltete Tags, einschließlich Zertifizierungs- und Veraltungs-Systemtags, um Vertrauensstufen oder Lebenszyklusstatus direkt auf der Notizbuch-Oberfläche anzugeben. Siehe Anwenden von Tags auf Notizbücher.

Vom Kunden verwaltete Schlüssel für Unity-Katalog

2. März 2026

Sie können jetzt Daten in Unity-Katalogen mit Ihren eigenen Verschlüsselungsschlüsseln mithilfe von vom Kunden verwalteten Schlüsseln (CMK) schützen. Siehe vom Kunden verwaltete Schlüssel für den Unity-Katalog.

Lakebase Autoscaling bietet jetzt Hochverfügbarkeit

2. März 2026

Lakebase Autocaling umfasst jetzt hohe Verfügbarkeit. Hohe Verfügbarkeit bietet automatisches Failover von Ihrer primären Computeinstanz zu sekundären Computeinstanzen, die über Verfügbarkeitszonen verteilt sind, ohne dass Änderungen an der Verbindungszeichenfolge erforderlich sind.

Siehe Hohe Verfügbarkeit.

Lakebase ist jetzt allgemein verfügbar auf Azure

2. März 2026

Lakebase ist jetzt allgemein auf Azure verfügbar. Es ist die neueste Version von Lakebase mit automatischer Berechnung, Skalierung bis Null, Verzweigung und sofortiger Wiederherstellung. Die GA-Version erweitert die Regionsunterstützung auf 11 neue Azure Regionen zusätzlich zu den vorhandenen regionen eastus2, westeurope und westus Regionen.

Neue Regionen:

  • australiaeast (Australien Ost)
  • brazilsouth (Brasilien Süd)
  • canadacentral (Kanada Zentral)
  • centralindia (Zentralindien)
  • southcentralus (Süd-Zentral-USA)
  • southeastasia (Südostasien)
  • eastus (Ost-USA)
  • centralus (Zentral-USA)
  • northeurope (Nordeuropa)
  • uksouth (Vereinigtes Königreich Süd)
  • westus2 (West-USA 2)

Sehen Sie "Erste Schritte mit Lakebase Autoscaling" an.

Planen von Datenaktualisierungen in Google Sheets (öffentliche Vorschau)

2. März 2026

Sie können jetzt automatische Datenaktualisierungen im Databricks Connector für Google Sheets auf stündliche, tägliche oder wöchentliche Basis planen. Siehe Plandatenaktualisierungen in Google Sheets.

Herstellen einer Verbindung mit Azure Databricks über Microsoft Excel (Öffentliche Vorschau)

2. März 2026

Das neue Azure Databricks Excel-Add-In befindet sich in der öffentlichen Vorschau und ermöglicht es Ihnen, Microsoft Excel mit Ihrem Arbeitsbereich zu verbinden, Daten aus Tabellen oder Metrikansichten zu importieren, SQL-Abfragen auszuführen und Daten direkt in Excel zu analysieren. Siehe Verbinden mit Azure Databricks aus Microsoft Excel.

Aktualisieren der Arbeitsbereich-Netzwerkkonfiguration auf VNet-Einfügung ist jetzt GA

2. März 2026

Sie können jetzt die VNet-Konfiguration (Virtual Network) eines vorhandenen Azure Databricks Arbeitsbereichs aktualisieren, um von einem Azure Databricks verwalteten VNet zu Ihrem eigenen VNet (VNet Injection) zu migrieren. Dieses Feature ist jetzt allgemein verfügbar. Siehe Aktualisieren der Netzwerkkonfiguration des Arbeitsbereichs.