Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese Features und Azure Databricks Plattformverbesserungen wurden im Juni 2022 veröffentlicht.
Hinweis
Releases werden gestaffelt. Ihr Azure Databricks Konto wird möglicherweise erst nach einer Woche oder mehr nach dem ursprünglichen Veröffentlichungsdatum aktualisiert.
ALTER TABLE Berechtigungsänderungen für Unity Catalog
30. Juni 2022
In Unity Catalog wurden die Berechtigungen, die zum Ausführen von ALTER TABLE-Anweisungen erforderlich sind, aktualisiert. Zuvor war OWNERSHIP einer Tabelle erforderlich, um alle ALTER TABLE-Anweisungen auszuführen. Jetzt ist OWNERSHIP für die Tabelle nur noch zum Ändern des Besitzers, zum Erteilen von Berechtigungen für die Tabelle, zum Ändern des Tabellennamens und zum Ändern einer Ansichtsdefinition erforderlich. Für alle anderen Metadatenvorgänge für eine Tabelle (z. B. Aktualisieren von Kommentaren, Eigenschaften oder Spalten) können Sie Aktualisierungen vornehmen, wenn Sie die Berechtigung MODIFY für die Tabelle haben.
Prüfen Sie ALTER TABLE und ALTER TABLE.
Der erweiterte Support für Databricks Runtime 6.4 wird eingestellt
30. Juni 2022
Der Support für Databricks Runtime 6.4 Erweiterter Support endete am 30. Juni. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.
Support für Databricks Runtime 10.2-Serie läuft aus
22. Juni 2022
Der Support für Databricks Runtime 10.2 und Databricks Runtime 10.2 für Machine Learning endete am 22. Juni. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.
Databricks-ODBC-Treiber 2.6.24
22. Juni 2022
Wir haben die Version 2.6.24 des Databricks-ODBC-Treibers veröffentlicht (Download). Diese Version unterstützt jetzt das Konfigurieren der Abfrageübersetzung in die CTAS-Syntax, ermöglicht Benutzern das Überschreiben von SQL_ATTR_QUERY_TIMEOUT im Connector und aktualisiert die OpenSSL-Bibliothek.
Darüber hinaus werden durch dieses Release folgende Probleme behoben:
- Der Connector lässt die Verwendung von Server- und Zwischenzertifikaten, die keinen CRL Distribution Points (CDP)-Eintrag haben, nicht zu.
- Bei Verwendung eines Proxys legt der Connector den falschen Hostnamen für die SSL-SNI (Server Name Indication, Servernamensanzeige) fest.
Databricks Terraform Provider ist jetzt allgemein verfügbar
22. Juni 2022
Der Databricks-Terraform-Anbieter ist jetzt allgemein verfügbar.
Terraform ermöglicht es Ihnen, die Bereitstellung Ihrer Datenplattformen mit den vorhandenen Prozessen für Infrastruktur als Code (IaC) von Terraform vollständig zu automatisieren.
Mit dem Databricks Terraform-Anbieter können Sie Objekte in Azure Databricks Arbeitsbereichen wie Clustern und Aufträgen definieren und die Zugriffssteuerung durch Berechtigungen für Benutzer, Gruppen und Dienstprinzipale erzwingen.
Der Databricks-Terraform-Anbieter bietet einen vollständigen Überwachungspfad für Bereitstellungen. Sie können den Databricks-Terraform-Anbieter als tragende Säule für Ihre Strategien im Bereich Notfallwiederherstellung und Geschäftskontinuität verwenden.
Der Databricks-Terraform-Anbieter unterstützt auch Unity Catalog (Vorschauversion), sodass Sie dieses wichtige Governancefeature mühelos und im großen Stil bereitstellen können.
Databricks Runtime 11.0 und 11.0 ML allgemein verfügbar; 11.0 Photon in Public Preview-Phase
16. Juni 2022
Databricks Runtime 11.0 und Databricks Runtime 11.0 ML sind jetzt allgemein verfügbar. Databricks Runtime 11.0 Photon befindet sich in der Public Preview-Phase.
Siehe Databricks Runtime 11.0 (EoS) und Databricks Runtime 11.0 für Machine Learning (EoS).
Wechseln zu Repos Standardarbeitsverzeichnis in Databricks Runtime 11.0
16. Juni 2022
Das Python Arbeitsverzeichnis für Notizbücher in einem Repository wird standardmäßig auf das Verzeichnis mit den Notizbüchern festgelegt. Anstelle von /databricks/driver ist beispielsweise das Standardarbeitsverzeichnis /Workspace/Repos/<user>/<repo>/<path-to-notebook>. Dies ermöglicht das Importieren und Lesen von Dateien in Repos standardmäßig auf Databricks Runtime 11.0-Clustern.
Es bedeutet aber auch, dass beim Schreiben in das aktuelle Arbeitsverzeichnis eine Fehlermeldung vom Typ Read-only filesystem auftritt. Wenn Sie weiterhin in das lokale Dateisystem für einen Cluster schreiben möchten, schreiben Sie in /tmp/<filename> oder /databricks/driver/<filename>.
Der Support für die Databricks Runtime 10.1-Serie läuft aus
14. Juni 2022
Der Support für Databricks Runtime 10.1 und Databricks Runtime 10.1 für Machine Learning endete am 14. Juni. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.
DLT unterstützt jetzt SCD-Typ 2.
13. bis 21. Juni 2022: Version 3.74
Ihre DLT-Pipelines können jetzt SCD-Typ 2 verwenden, um Quelldatenänderungen zu erfassen und den vollständigen Verlauf der Aktualisierungen für Datensätze beizubehalten. Dadurch wird die vorhandene DLT-Unterstützung für SCD-Typ 1 verbessert. Siehe Die AUTO CDC-APIs: Vereinfachen der Änderungsdatenerfassung mit Pipelines.
Erstellen von DLT-Pipelines direkt auf der benutzeroberfläche Azure Databricks
13. bis 21. Juni 2022: Version 3.74
Sie können nun eine DLT-Pipeline über das Menü Create auf der Randleiste der Azure Databricks-Benutzeroberfläche erstellen.
Wählen Sie den DLT-Kanal aus, wenn Sie eine Pipeline erstellen oder bearbeiten.
13. bis 21. Juni 2022: Version 3.74
Sie können nun den Kanal für Ihre DLT-Pipeline mit den Dialogfeldern " Pipeline erstellen" und " Pipelineeinstellungen bearbeiten " konfigurieren. Zuvor erforderte die Konfiguration des Kanals das Bearbeiten der Einstellungen in der JSON-Konfiguration der Pipeline.
Kommunizieren Sie zwischen Aufgaben in Ihren Azure Databricks-Jobs mithilfe von Aufgabenwerten.
13. Juni 2022
Sie können jetzt Werte zwischen Vorgängen in Ihren Azure Databricks Aufträgen mit task-Werten kommunizieren. Aufgabenwerte können beispielsweise verwendet werden, um die Ausgabe eines maschinellen Lernmodells an nachgelagerte Aufgaben im gleichen Auftrag zu übergeben. Weitere Informationen finden Sie unter taskValues-Unterhilfsprogramm (dbutils.jobs.taskValues).
Aktivieren des Kontowechsels in der Databricks-Benutzeroberfläche
8. Juni 2022
Wenn Benutzer mehreren Konten angehören, können sie jetzt auf der Databricks-Benutzeroberfläche zwischen Konten wechseln. Um den Kontoumschalter zu verwenden, klicken Sie oben auf der Databricks-Benutzeroberfläche auf Ihre E-Mail-Adresse, und zeigen Sie dann auf Konto wechseln. Wählen Sie dann das Konto aus, zu dem Sie navigieren möchten.