Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Informationen zum Enddatum des Supports finden Sie unter "Ende des Supports" und "Ende des Lebenszyklus". Alle unterstützten Databricks-Runtime-Versionen finden Sie unter Databricks Runtime Versionshinweise und Kompatibilität.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.2, unterstützt von Apache Spark 3.5.2.
Databricks hat diese Version im Februar 2025 veröffentlicht.
Verhaltensänderungen
ANALYZE überspringt jetzt Spalten mit nicht unterstützten Typen.
ANALYZE TABLE führt nicht mehr zu einer Fehlermeldung, wenn es in einer Tabelle mit nicht unterstützten Typen ausgeführt wird, wie zum Beispiel ARRAY oder MAP. Nicht unterstützte Spalten werden jetzt automatisch übersprungen. Benutzer, die Logik implementiert haben, die diese Fehler erwartet, sollten ihren Code aktualisieren.
Bei Delta Sharing ist der Tabellenverlauf standardmäßig aktiviert.
Für Freigaben, die mit dem SQL-Befehl ALTER SHARE <share> ADD TABLE <table> erstellt werden, ist jetzt die Freigabe des Verlaufs (WITH HISTORY) standardmäßig aktiviert. Siehe ALTER SHARE.
SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn der Typ der Anmeldeinformationen nicht übereinstimmt
Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp mit dieser Version nicht mit dem Typ des Arguments für Anmeldeinformationen übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt. Bei der Anweisung DROP STORAGE CREDENTIAL 'credential-name' tritt beispielsweise ein Fehler auf, wenn das credential-name-Element keine Speicheranmeldeinformationen darstellt.
Diese Änderung wird vorgenommen, um Benutzerfehler zu vermeiden. Zuvor wurden diese Anweisungen erfolgreich ausgeführt, selbst wenn ein Berechtigungsnachweis übergeben wurde, der nicht dem angegebenen Berechtigungstyp entsprach. Beispielsweise würde die folgende Anweisung storage-credentialerfolgreich löschen: DROP SERVICE CREDENTIAL storage-credential.
Diese Änderung wirkt sich auf folgende Anweisungen aus:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… AUF... BERECHTIGUNGSNACHWEIS
- REVOKE… AUF... BERECHTIGUNGSNACHWEIS
- SHOW GRANTS AUF... BERECHTIGUNGSNACHWEIS
Neue Features und Verbesserungen
-
Erstellen benutzerdefinierter zustandsbehafteter Anwendungen mit
transformWithState - Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen
- Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt allgemein verfügbar
- Notizbücher werden als Arbeitsbereichsdateien unterstützt
-
Verwenden von
timestampdiff×tampaddin generierten Spaltenausdrücken - Unterstützung für sql-Pipelinesyntax
-
HTTP-Anforderung mithilfe der
http_requestFunktion durchführen -
Aktualisierung auf
DESCRIBE TABLEgibt Metadaten als strukturiertes JSON zurück - Nachfolgende leere Nichtsensitive Sortierungen
- Konvertieren von Apache Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen
-
Standardzugriffsmodus (früher gemeinsam genutzter Zugriffsmodus) unterstützt jetzt die Spark Scala-Methoden
foreach,foreachBatchundflatMapGroupsWithState
Erstellen Sie benutzerdefinierte, zustandsbehaftete Anwendungen mit transformWithState
Sie können jetzt transformWithState und verwandte APIs nutzen, um benutzerdefinierte zustandsbehaftete Anwendungen als Teil von Structured Streaming-Abfragen zu implementieren. Siehe Erstellen einer benutzerdefinierten zustandsbehafteten Anwendung.
Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen
Sie können jetzt Databricks-Dienstanmeldeinformationen verwenden, um sich beim Cloudobjektspeicher mit auto Loader zu authentifizieren. Siehe Konfigurieren von Datenströmen für das automatische Laden im Dateibenachrichtigungsmodus.
Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt GA
Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten von Azure Databricks. Mit Databricks Runtime 16.2 sind Dienstanmeldeinformationen allgemein verfügbar und unterstützen jetzt Scala SDKs zusätzlich zum Python SDK, das in der public Preview unterstützt wurde. Siehe Erstellen von Dienstanmeldeinformationen.
Notizbücher werden als Arbeitsbereichsdateien unterstützt
In Databricks Runtime 16.2 und höher werden Notizbücher als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert mit Notizbüchern überall dort interagieren, wo das Arbeitsbereichsdateisystem verfügbar ist, einschließlich des Schreibens, Lesens und Löschens von Notizbüchern wie mit jeder anderen Datei. Weitere Informationen finden Sie unter Programmgesteuertes Erstellen, Aktualisieren und Löschen von Dateien und Verzeichnissen.
Verwenden Sie timestampdiff & timestampadd in generierten Spaltenausdrücken
In Databricks Runtime 16.2 und höher können Sie die timestampdiff- und timestampadd-Funktionen in generierten Spaltenausdrücken von Delta Lake verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.
Unterstützung für SQL-Pipeline-Syntax
In Databricks Runtime 16.2 und höher können Sie SQL-Pipelines verfassen. Eine SQL-Pipeline strukturiert eine Standardabfrage, z. B. SELECT c2 FROM T WHERE c1 = 5, in eine Schritt-für-Schritt-Sequenz, wie im folgenden Beispiel gezeigt:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Informationen zur unterstützten Syntax für SQL-Pipelines finden Sie unter SQL-Pipelinesyntax.
Hintergrundinformationen zu dieser branchenübergreifenden Erweiterung finden Sie unter SQL Has Problems. Wir können sie beheben: Pipe-Syntax in SQL (von Google Research).
HTTP-Anforderung mithilfe der http_request-Funktion durchführen
In Databricks Runtime 16.2 und höher können Sie HTTP-Verbindungen erstellen und über sie HTTP-Anforderungen mithilfe der http_request-Funktion vornehmen.
Aktualisieren auf DESCRIBE TABLE Gibt Metadaten als strukturiertes JSON zurück.
In Databricks Runtime 16.2 und höher können Sie den DESCRIBE TABLE AS JSON Befehl verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.
Sortierungen ohne Beachtung nachstehender Leerzeichen
Databricks Runtime 16.2 fügt Unterstützung für kollationen hinzu, die unempfindlich gegenüber nachgestellten Leerzeichen sind, und erweitert damit die bereits in Databricks Runtime 16.1 eingeführte Sortierunterstützung. Beispielsweise behandeln diese Sortierungen 'Hello' und 'Hello ' gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.
Konvertieren von Apache Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen
Die CONVERT TO DELTA- und CREATE TABLE CLONE-Aussagen unterstützen jetzt die Konvertierung einer Apache Iceberg-Tabelle mit Bucket-Partitionierung in eine nicht-partitionierte Delta-Tabelle.
Standardzugriffsmodus (früher gemeinsam genutzter Zugriffsmodus) Compute unterstützt jetzt die Spark Scala-Methoden foreach, foreachBatch und flatMapGroupsWithState
In Databricks Runtime 16.2 und höher unterstützt der Standardzugriffsmodus für Compute jetzt die Scala-Methoden DataStreamWriter.foreachBatch und KeyValueGroupedDataset.flatMapGroupsWithState. In Databricks Runtime 16.1 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methode DataStreamWriter.foreach.
Fehlerkorrekturen
Verbesserte inkrementelle Klonverarbeitung
Diese Version enthält einen Fix für einen Randfall, bei dem ein inkrementelles CLONE möglicherweise Dateien, die bereits aus einer Quelltabelle kopiert wurden, in eine Zieltabelle erneut kopieren kann. Siehe Klonen einer Tabelle in Azure Databricks.
Bibliotheksaktualisierungen
- Aktualisierte Python-Bibliotheken:
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- org.json4s.json4s-ast_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-core_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-jackson_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-scalap_2.12 von 3.7.0-M11 bis 4.0.7
Apache Spark
Databricks Runtime 16.2 umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
-
[SPARK-49966] Rückgängig machen von "[SC-179501][sql] Verwendung
Invokezur ImplementierungJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Korrektur der Abfrageausführung des Sortierungsausdrucks Walker
- [SPARK-49666] [SQL] Aktivieren von Kürzungstests für inSet-Ausdruck
- [SPARK-50669] [SC-184566][es-1327450][SQL] Ändern der Signatur des TimestampAdd-Ausdrucks
-
[SPARK-50795] [16.x][sc-186719][SQL] Zeitstempel als
longTyp indescribeLinkedHashMap speichern - [SPARK-50870] [SC-186950][sql] Fügen Sie die Zeitzone beim Konvertieren in den Timestamp in V2ScanRelationPushDown hinzu.
- [SPARK-50735] [SC-186944][connect] Fehler in ExecuteResponseObserver führt zu unendlichen Reattachingsanforderungen.
- [SPARK-50522] [SC-186500][sql] Unterstützung für unbestimmte Sortierung
- [SPARK-50525] [SC-186058][sql] Definieren der InsertMapSortInRepartitionExpressions Optimierungsregel
- [SPARK-50679] [SC-184572][sql] Duplizierte gemeinsame Ausdrücke in unterschiedlichen WITH-Klauseln sollten nur einmal abgebildet werden.
- [SPARK-50847] [SC-186916] [SQL] Verhindern Sie die Anwendung von ApplyCharTypePadding auf bestimmte In-Ausdrücke
- [SPARK-50714] [SC-186786][sql][SS] Aktivieren der Schemaentwicklung für TransformWithState bei Verwendung der Avro-Codierung
-
[SPARK-50795] [SC-186390][sql] Alle Datumsangaben in 'DESCRIBE AS JSON' im ISO-8601-Format und Datentypen darstellen als
dataType.simpleString - [SPARK-50561] [SC-185924][sql] Databricks Runtime 16.x cherrypick: Verbessern der Typumwandlungs- und Grenzüberprüfung für die UNIFORM-SQL-Funktion
-
[SPARK-50700] [ SC-184845][sql]
spark.sql.catalog.spark_catalogunterstütztbuiltinmagischen Wert - [SPARK-50831] [SC-186736][sql] Standardmäßiges Kürzen der Sortierung aktivieren
-
[SPARK-50263] [SC-186793][connect] Ersetzen
System.currentTimeMillisdurchSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementieren von CreateSQLFunctionCommand für SQL Scalar- und Tabellenfunktionen
- [SPARK-50830] [SC-186718] [SQL] Zurückgeben eines Einzeldurchlaufergebnisses als Ergebnis der Dual-Run-Analyse
- [SPARK-50707] [SC-186098][sql] Konvertierung in/von char/varchar aktivieren
- [SPARK-49490] [ SC-182137][sql] Fügen Sie Benchmarks für initCap hinzu
-
[SPARK-50529] [SC-184535][sql] Ändern des char/varchar-Verhaltens in der
spark.sql.preserveCharVarcharTypeInfoKonfiguration - [SPARK-49632] [SC-184179][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Behebung eines Fehlers, bei dem das Übergeben von NULL-Varianten in createDataFrame bewirkt, dass dies fehlschlägt und die Variant-Unterstützung in createDataFrame in Spark Connect hinzufügt.
-
[SPARK-50828] [SC-186493][python][ML][connect] Wird abgewertet
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Set für Analysefehler analysiert
- [SPARK-50824] [ SC-186472][python] Vermeiden Sie das Importieren optionaler Python-Pakete zur Überprüfung
- [SPARK-50755] [SC-185521][sql] Hübsche Plananzeige für InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] Die Eingaben für eingegebene Aggregationen sollten analysiert werden.
- [SPARK-50791] [SC-185867][sc-186338][SQL] Beheben von NPE im State Store Fehlerbehandlungsproblemen
-
[SPARK-50801] [SC-186365] [SQL] Verbessern
PlanLogger.logPlanResolution, sodass es nur ungelöste und aufgelöste Pläne anzeigt - [SPARK-50749] [SC-185925][sql] Beheben des Sortierfehlers in der CommutativeExpression.gatherCommutative-Methode
- [SPARK-50783] [ SC-186347] Vereinheitlichen der JVM-Profilergebnis-Dateinamen und -Gestaltung auf DFS
- [SPARK-50790] [SC-186354][python] Implementieren von parse json in pyspark
- [SPARK-50738] [ SC-184856][python] Upgrade schwarz auf 23.12.1
- [SPARK-50764] [ SC-185930][python] Verfeinern der Docstring von xpath-verwandten Methoden
-
[SPARK-50798] [ SC-186277][sql] Verbessern
NormalizePlan - [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integration mit RocksDB und RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Hinzufügen eines Featurekennzeichnungs für Sortierungen auf Objektebene
- [SPARK-50778] [SC-186183][python] Hinzufügen von metadataColumn zu PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] Databricks Runtime 16.x cherrypick: Verbessern automatisch generierter Ausdrucksaliasen mit SQL-Pipeoperatoren
- [SPARK-50541] [16.x][sc-184937] Tabelle als JSON beschreiben
- [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x Cherrypick: Beibehalten von Tabellenaliasen nach SET, EXTEND, DROP-Operatoren
- [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Synchronisiere Delta-Code-Unterschiede mit Databricks Runtime
- [SPARK-50752] [SC-185547][python][SQL] Einführen von Konfigurationen für die Optimierung von Python-UDF ohne Pfeil
-
[SPARK-50705] [SC-185944][sql] Sperrfrei machen
QueryPlan - [SPARK-50690] [16.x][sc-184640][SQL] Diskrepanzen bei der Anführungszeichenverwendung in Ansichtsabfrageausgabespalten beheben
- [SPARK-50746] [SC-184932][sql] Ersetzen Sie Either durch VariantPathSegment.
-
[SPARK-50715] [ SC-185546][python][CONNECT]
SparkSession.Builderlegt die Konfigurationen im Batch fest. - [SPARK-50480] [SC-183359][sql] Erweiterung von CharType und VarcharType aus StringType
- [SPARK-50675] [ SC-184539][sql] Unterstützung von Tabellen- und Ansichtsebenen-Kollationen
-
[SPARK-50409] [ SC-184516][sql] Fix set statement to ignore
;at the end ofSET;,SET -v;andSET key; - [SPARK-50743] [SC-185528][sql] Normalize CTERelationDef und CTERelationRef IDs
- [SPARK-50693] [ SC-184684][connect] Die Eingaben für TypedScalaUdf sollten analysiert werden.
- [SPARK-50744] [SC-184929][sql] Fügen Sie einen Testfall für die Ansichts-/CTE-Namensauflösungsrangfolge hinzu.
- [SPARK-50710] [SC-184767][connect] Unterstützung für optionale Client-Wiederverbindung zu Sitzungen nach Freigabe hinzufügen
- [SPARK-50703][ SC-184843][python] Verfeinerung des docstrings von regexp_replace, regexp_substr und regexp_instr
-
[SPARK-50716] [SC-184823][Kern] Behebung der Bereinigungslogik für symbolische Verknüpfungen in der
JavaUtils.deleteRecursivelyUsingJavaIO-Methode - [SPARK-50630] [SC-184443][sql] Fehlerbehebung bei der Ordnungsunterstützung für Pipe-SQL-AGGREGAT-Operatoren.
- [SPARK-50614] [SC-184729][sql] Hinzufügen von Variant-Zerlegungsunterstützung für Parquet
- [SPARK-50661] [SASP-4936] Hinzufügen der Abwärtskompatibilität für alte Client-FEB.
-
[SPARK-50676] [SC-184641][sql] Entfernen ungenutztes
private lazy val mapValueContainsNullausElementAt -
[SPARK-50515] [SC-183813][core] Hinzufügen einer schreibgeschützten Schnittstelle zu
SparkConf - [SPARK-50697] [ SC-184702][sql] Aktivieren der Tail-Rekursion nach Möglichkeit
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Beheben des Statusschemas für FlatMapGroupsWithState in Spark Connect, wenn kein Anfangszustand vorhanden ist
- [SPARK-50701] [ SC-184704][python] Festlegen, dass Plotten die minimale Plotly-Version erfordert
- [SPARK-50702] [SC-184727][python] Verfeinere den Docstring von regexp_count, regexp_extract und regexp_extract_all
- [SPARK-50499] [SC-184177][python] Verfügbarmachen von Metriken von BasePythonRunner
- [SPARK-50692] [ SC-184705][16.x] Hinzufügen der RPAD-Pushdownunterstützung
- [SPARK-50682] [SC-184579][sql] Innerer Alias sollte kanonisiert werden.
- [SPARK-50699] [ SC-184695][python] Analysieren und Generieren einer DDL-Zeichenfolge mit einer angegebenen Sitzung
- [SPARK-50573] [SC-184568][ss] Hinzufügen der Statusschema-ID zu Statuszeilen zur Schema-Evolution
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Behebung der Spark Connect Scala foreachBatch-Implementierung. zur Unterstützung von Dataset[T].
- [SPARK-50689] [SC-184591][sql] Deterministische Sortierung in LCA-Projektlisten erzwingen
- [SPARK-50696] [SC-184667][python] Optimieren des Py4J-Aufrufs für die DDL-Analysemethode
- [SPARK-49670] [SC-182902][sql] Aktivieren der Kürzungssortierung für alle Passthroughausdrücke
-
[SPARK-50673] [SC-184565][ml] Vermeiden Sie das Durchlaufen von Modellkoeffizienten zweimal im
Word2VecModelKonstruktor. - [SPARK-50687] [SC-184588][python] Optimieren der Logik zum Abrufen von Stack-Traces für DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Zwischenspeichern des analysierten Schemas für MapInXXX und ApplyInXXX
- [SPARK-50674] [SC-184589][python] Fixüberprüfung auf das Vorhandensein der "terminate"-Methode in der UDTF-Auswertung
- [SPARK-50684] [SC-184582][python] Verbessern der Py4J-Leistung in DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Fügen Sie Unterstützung für neue Versionen von Statusmetadaten für TransformWithStateInPandas hinzu.
- [SPARK-50602] [SC-184439][sql] Fixtransponierung, um eine ordnungsgemäße Fehlermeldung anzuzeigen, wenn ungültige Indexspalten angegeben werden
- [SPARK-50650] [ SC-184532][sql] Verbesserung der Protokollierung im Single-Pass-Analyzer
- [SPARK-50665] [SC-184533][sql] Ersetzen von LocalRelation durch ComparableLocalRelation in NormalizePlan
- [SPARK-50644] [SC-184486][sql] Varianten-Struktur im Parquet-Leser lesen.
- [SPARK-49636] [SC-184089][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in INVALID_ARRAY_INDEX und INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Ausgabeberechnung für Union umstrukturieren, damit sie im Einzelpass-Analyzer wiederverwendet werden kann.
- [SPARK-50659] [SC-184512][sql] Fehler im Zusammenhang mit Union zu QueryCompilationErrors verschieben
- [SPARK-50530] [SC-183419][sql] Behebung der fehlerhaften Berechnung des impliziten Zeichenfolgentyps.
- [SPARK-50546] [SC-183807][sql] Hinzufügen der Unterstützung von Unterabfragen zur Koersion des Sortiertyps
- [SPARK-50405] [SC-182889][sql] Korrekte Behandlung der Sortierungstypkoerzierung bei komplexen Datentypen
- [SPARK-50637] [SC-184434][sql] Code-Stil für den Single-Pass-Analyzer beheben
- [SPARK-50638] [SC-184435][sql] Umgestalten Sie die Ansichtsauflösung in die separate Datei, um sie im Single Pass Analyzer wiederzuverwenden.
- [SPARK-50615] [SC-184298][sql] Push-Variante in Scan.
- [SPARK-50619] [SC-184210][sql] Refactor von VariantGet.cast zur Zusammenfassung der Cast-Argumente
- [SPARK-50599] [SC-184058][sql] Erstellen Sie die DataEncoder-Eigenschaft, die Avro- und UnsafeRow-Codierung ermöglicht
- [SPARK-50076] [ SC-183809] Beheben von Protokollschlüsseln
- [SPARK-50597] [SC-183972][sql] Refaktorierung der Batcherstellung in Optimizer.scala und SparkOptimizer.scala
- [SPARK-50339] [ SC-183063][spark-50360][SS] Aktivieren des Änderungsprotokolls zum Speichern von Abstammungsinformationen
- [SPARK-50526] [SC-183811][ss] Hinzufügen des Codierungsformats des Speichers in das Offset-Log und Blockieren von nicht unterstützten zustandsbehafteten Operatoren bei der Verwendung von avro.
- [SPARK-50540] [SC-183810][python][SS] Fixzeichenfolgenschema für StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Verwenden von SQLConf, das von SparkSession zuerst bereitgestellt wird.
- [SPARK-48898] [SC-183793][sql] Legen Sie die Nullierbarkeit im Variant-Schema richtig fest.
- [SPARK-50559] [SC-183814][sql] Speichere die Ausgaben von Except, Intersect und Union als lazy vals
- Unterstützung verschachtelter korrelierter With-Ausdrücke
- [SPARK-50428] [SC-183566][ss][PYTHON] Unterstützen TransformWithStateInPandas in Batchabfragen
- [SPARK-50063] [SC-183350][sql][CONNECT] Hinzufügen von Unterstützung für Variant im Spark Connect Scala-Client
-
[SPARK-50544] [ SC-183569][python][CONNECT] Implementieren
StructType.toDDL - [SPARK-50443] [SC-182590][ss] Beheben von Maven-Buildfehlern, die von Guava-Cache in RocksDBStateStoreProvider eingeführt wurden
- [SPARK-50491] [SC-183434][sql] Fehler beheben, bei dem leere BEGIN-END-Blöcke einen Fehler auslösen
-
[SPARK-50536] [SC-183443][core] Archivdateigrößen in
SparkContextundExecutorprotokollieren - [SPARK-45891] [SC-183439][sql] Variant-Binärdatei aus geschredderten Daten neu erstellen.
- [SPARK-49565] [SC-183465][sql] Hinzufügen der SQL-Pipesyntax für den FROM-Operator
- [SPARK-50497] [SC-183338][sql] Abfragen mit einer eindeutigen Meldung fehlschlagen lassen, wenn MultiAlias eine Nicht-Generator-Funktion enthält
- [SPARK-50460] [SC-183375][python][CONNECT] Verallgemeinern und Vereinfachen der Ausnahmebehandlung von Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Fixkomprimierungsoption, die überschrieben wird
df.write.parquet - [SPARK-50329] [SC-183358][sql] Korrektur von InSet$toString
- [SPARK-50524] [SC-183364][sql] Warnmeldung auf Debug-Ebene herabsetzen
-
[SPARK-50528] [ SC-183385][connect] Wechseln
InvalidCommandInputzum gemeinsamen Modul - [SPARK-50017] [ SC-182438][ss] Unterstützung der Avro-Codierung für den Operator TransformWithState
- [SPARK-50463] [SC-182833][sql] Korrektur bei der Umwandlung von Spaltenar zu Zeilen
- [SPARK-50235] [SC-180786][sql] Aufräumen der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Test zum Beseitigen des init-Zustands-bezogenen Problems zur Verwendung von StreamManualClock.
- [SPARK-50478] [ SC-183188][sql] Korrektur der StringType-Übereinstimmung
- [SPARK-50492] [SC-183177][ss] Fix java.util.NoSuchElementException, wenn die Ereigniszeitspalte nach dropDuplicatesWithinWatermark gelöscht wird
- [SPARK-49566] [ SC-182589][sql] Hinzufügen einer SQL-Pipesyntax für den SET Operator
- [SPARK-50449] [SC-183178][sql] Korrigieren der SQL-Skripting-Grammatik, die leere Textkörper für Schleifen, WENN und CASE zulässt
-
[SPARK-50251] [SC-180970][python] Zu PySpark hinzufügen
getSystemPropertySparkContext - [SPARK-50421] [SC-183091][core] Korrektur der speicherbezogenen Konfiguration für Executor, wenn mehrere Ressourcenprofile aktiv sind
- [SPARK-49461] [ SC-179572][ss] Persistente Checkpoint-ID zum Commitment von Logs und deren Rücklesen
- [SPARK-50343] [SC-183119][spark-50344][SQL] Hinzufügen der SQL-Pipesyntax für die DROP- und AS-Operatoren
-
[SPARK-50481] [SC-182880][core] Verbesserung von
SortShuffleManager.unregisterShuffle, um die Logik der Prüfsummendatei zu überspringen, wenn die Prüfsumme deaktiviert ist -
[SPARK-50498] [ SC-183090][python] Vermeiden Sie unnötige Py4j-Aufrufe in
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Selbst-Join nach
applyInArrowbeheben - [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres-Fehlerbehebung XOR-Pushdown
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt die in den letzten 2 Jahren veröffentlichten ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter (ODBC herunterladen, JDBC herunterladen).
Wartungsupdates
Siehe Databricks Runtime 16.2 Wartungsupdates.
Systemumgebung
-
Betriebssystem: Ubuntu 24.04.1 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die Databricks-Runtime-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotierte Typen | 0.7.0 | asttokens | 2.0.5 | Astunparse | 1.6.3 |
| Autokommand | 2.2.2 | Azure Core | 1.31.0 | Azure-Speicher-Blob | 12.23.0 |
| Azure-Speicher-Datei-Datensee | 12.17.0 | backports.tarfile | 1.2.0 | schwarz | 24.4.2 |
| Blinker | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
| CacheWerkzeuge | 5.3.3 | Zertifizieren | 2024.6.2 | CFFI | 1.16.0 |
| Chardet | 4.0.0 | Charset-Normalizer | 2.0.4 | Klicken | 8.1.7 |
| Wolkengurke | 2.2.1 | Kommunikation | 0.2.1 | Contourpy | 1.2.0 |
| Kryptographie | 42.0.5 | Fahrradfahrer | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| Dekorateur | 5.1.1 | Deprecated | 1.2.14 | Distlib | 0.3.8 |
| Docstring zu Markdown | 0.11 | Einstiegspunkte | 0.4 | ausführen | 0.8.3 |
| Übersicht der Facetten | 1.1.1 | Dateisperrung | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google-Authentifizierung | 2.35.0 | Google-Cloud-Core | 2.4.1 | Google Cloud-Speicher | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| GRPCIO | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3,7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| beugen | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-Erweiterungen | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| Packen | 24.1 | Pandas | 1.5.3 | Parso | 0.8.3 |
| Pfadangabe | 0.10.3 | Sündenbock | 0.5.6 | pexpect | 4.8.0 |
| Kissen | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
| Handlung | 5.22.0 | plugin-fähig | 1.0.0 | Prompt-Toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 15.0.2 | Pyasn1 | 0.4.8 | Pyasn1-Module | 0.2.8 |
| pyccolo | 0.0.65 | Pycparser | 2.21 | Pydantisch | 2.8.2 |
| pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | Python-LSP-Server | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| Anforderungen | 2.32.2 | Seil | 1.12.0 | rsa | 4,9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | SciPy | 1.13.1 |
| Seegeboren | 0.13.2 | setuptools | 74.0.0 | sechs | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| Stapeldaten | 0.2.0 | StatistikModelle | 0.14.2 | Hartnäckigkeit | 8.2.2 |
| Threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| Tornado | 6.4.1 | Traitlets | 5.14.3 | Typwächter | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | Anfragetypen | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| Typen-6 | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | Wadllib | 1.3.6 | wcwidth | 0.2.5 |
| Was ist neu im Patch | 1.0.2 | Rad | 0.43.0 | Eingehüllt | 1.14.1 |
| yapf | 0.33.0 | ZIPP | 3.17.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der CRAN-Momentaufnahme vom 04.08.2024 des Posit Package Managers installiert: https://packagemanager.posit.co/cran/2024-08-04/.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| Backports | 1.5.0 | Basis | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| Bitops | 1.0-8 | Blob | 1.2.4 | Booten | 1.3-30 |
| brauen | 1.0-10 | Brio | 1.1.5 | Besen | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | Callr | 3.7.6 |
| Einfügezeichen | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.3 | Clipr | 0.8.0 |
| Uhr | 0.7.1 | Cluster | 2.1.6 | Codetools | 0.2-20 |
| Farbraum | 2.1-1 | Commonmark | 1.9.1 | Compiler | 4.4.0 |
| config | 0.3.2 | konfliktbehaftet | 1.2.0 | cpp11 | 0.4.7 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | Datensätze | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Beschreibung | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.36 |
| Abwärtsbeleuchtung | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | Ellipsen | 0.3.2 | Evaluieren | 0.24.0 |
| fansi | 1.0.6 | Farben | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | Vergessene Katzen | 1.0.0 | foreach | 1.5.2 |
| Fremd | 0.8-86 | schmieden | 0.2.0 | fs | 1.6.4 |
| Zukunft | 1.34.0 | future.apply | 1.11.2 | gurgeln | 1.5.2 |
| Generika | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globale Variablen | 0.16.3 | Leim | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Graphik | 4.4.0 | grDevices | 4.4.0 | Raster | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | Schutzhelm | 1.4.0 | Zufluchtsort | 2.5.4 |
| Highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteratoren | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | Kennzeichnung | 0.4.3 |
| später | 1.3.2 | Gitter | 0.22-5 | Lava | 1.8.0 |
| Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Abschlag | 1.13 | MASSE | 7.3-60.0.1 |
| Matrix | 1.6-5 | Memoise | 2.0.1 | Methodik | 4.4.0 |
| mgcv | 1.9-1 | Pantomime | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
| parallel verlaufend | 1.38.0 | Säule | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
| progressr | 0.14.0 | verspricht | 1.3.0 | Prototyp | 1.0.0 |
| Stellvertreter | 0.4-27 | PS | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | Ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktivierbar | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | readxl | 1.4.3 |
| Rezepte | 1.1.0 | Rückspiel | 2.0.0 | Rematch2 | 2.1.2 |
| Fernzugriffe | 2.5.0 | Reprex | 2.1.1 | Umform2 | 1.4.4 |
| rlang | 1.1.4 | Rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| Waagen | 1.3.0 | Selektor | 0.4-2 | Sitzungsinformationen | 1.2.2 |
| Gestalt | 1.4.6.1 | glänzend | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | räumlich | 7.3-17 |
| Splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statistiken | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | Überleben | 3.6-4 | stolzieren | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | Textgestaltung | 0.4.0 | Tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| Zeitänderung | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| Werkzeuge | 4.4.0 | tzdb | 0.4.0 | URL-Prüfer | 1.0.1 |
| verwendenSieDies | 3.0.0 | utf8 | 1.2.4 | Utils | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| Backenbart | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | komprimieren | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Konfiguration | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Stream | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryoschattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | fehleranfällige_Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | Guava | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | Profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | Metrics Core | 4.2.19 |
| io.dropwizard.metrics | Metrics-Graphite | 4.2.19 |
| io.dropwizard.metrics | Metriken-Gesundheitsprüfungen | 4.2.19 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty Buffer | 4.1.108.Final |
| io.netty | Netty-Codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | Netty-Codec-Socken | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | Netty-Handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | Netty-Resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | Netty-Transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Essiggurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | Ant-Launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 15.0.0 |
| org.apache.arrow | Pfeilspeicherkern | 15.0.0 |
| org.apache.arrow | Arrow-memory-netty | 15.0.0 |
| org.apache.arrow | Pfeilvektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Kurator-Client | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Kurator-Rezepte | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeitumgebung | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common (Note: If this is a product name or a standard technical term, it may remain untranslated in the target text. However, if translations or further context are customarily provided in the industry for such components, additional explanatory text could be included alongside the original term in a real-world translation, but without more context here, it's assumed to be a proper noun.) | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Efeu | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | Orc-Shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.13.0 |
| org.apache.zookeeper | Zookeeper | 3.9.2 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.2 |
| org.checkerframework | Prüferqual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-IO | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Util | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | Jersey-Client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | Jersey-Server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Klemmstücke | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testschnittstelle | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | Scalatest-kompatibel | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |