Freigeben über


Databricks Runtime 16.2 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Informationen zum Enddatum des Supports finden Sie unter "Ende des Supports" und "Ende des Lebenszyklus". Alle unterstützten Databricks-Runtime-Versionen finden Sie unter Databricks Runtime Versionshinweise und Kompatibilität.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.2, unterstützt von Apache Spark 3.5.2.

Databricks hat diese Version im Februar 2025 veröffentlicht.

Verhaltensänderungen

ANALYZE überspringt jetzt Spalten mit nicht unterstützten Typen.

ANALYZE TABLE führt nicht mehr zu einer Fehlermeldung, wenn es in einer Tabelle mit nicht unterstützten Typen ausgeführt wird, wie zum Beispiel ARRAY oder MAP. Nicht unterstützte Spalten werden jetzt automatisch übersprungen. Benutzer, die Logik implementiert haben, die diese Fehler erwartet, sollten ihren Code aktualisieren.

Bei Delta Sharing ist der Tabellenverlauf standardmäßig aktiviert.

Für Freigaben, die mit dem SQL-Befehl ALTER SHARE <share> ADD TABLE <table> erstellt werden, ist jetzt die Freigabe des Verlaufs (WITH HISTORY) standardmäßig aktiviert. Siehe ALTER SHARE.

SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn der Typ der Anmeldeinformationen nicht übereinstimmt

Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp mit dieser Version nicht mit dem Typ des Arguments für Anmeldeinformationen übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt. Bei der Anweisung DROP STORAGE CREDENTIAL 'credential-name' tritt beispielsweise ein Fehler auf, wenn das credential-name-Element keine Speicheranmeldeinformationen darstellt.

Diese Änderung wird vorgenommen, um Benutzerfehler zu vermeiden. Zuvor wurden diese Anweisungen erfolgreich ausgeführt, selbst wenn ein Berechtigungsnachweis übergeben wurde, der nicht dem angegebenen Berechtigungstyp entsprach. Beispielsweise würde die folgende Anweisung storage-credentialerfolgreich löschen: DROP SERVICE CREDENTIAL storage-credential.

Diese Änderung wirkt sich auf folgende Anweisungen aus:

Neue Features und Verbesserungen

Erstellen Sie benutzerdefinierte, zustandsbehaftete Anwendungen mit transformWithState

Sie können jetzt transformWithState und verwandte APIs nutzen, um benutzerdefinierte zustandsbehaftete Anwendungen als Teil von Structured Streaming-Abfragen zu implementieren. Siehe Erstellen einer benutzerdefinierten zustandsbehafteten Anwendung.

Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen

Sie können jetzt Databricks-Dienstanmeldeinformationen verwenden, um sich beim Cloudobjektspeicher mit auto Loader zu authentifizieren. Siehe Konfigurieren von Datenströmen für das automatische Laden im Dateibenachrichtigungsmodus.

Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt GA

Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten von Azure Databricks. Mit Databricks Runtime 16.2 sind Dienstanmeldeinformationen allgemein verfügbar und unterstützen jetzt Scala SDKs zusätzlich zum Python SDK, das in der public Preview unterstützt wurde. Siehe Erstellen von Dienstanmeldeinformationen.

Notizbücher werden als Arbeitsbereichsdateien unterstützt

In Databricks Runtime 16.2 und höher werden Notizbücher als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert mit Notizbüchern überall dort interagieren, wo das Arbeitsbereichsdateisystem verfügbar ist, einschließlich des Schreibens, Lesens und Löschens von Notizbüchern wie mit jeder anderen Datei. Weitere Informationen finden Sie unter Programmgesteuertes Erstellen, Aktualisieren und Löschen von Dateien und Verzeichnissen.

Verwenden Sie timestampdiff & timestampadd in generierten Spaltenausdrücken

In Databricks Runtime 16.2 und höher können Sie die timestampdiff- und timestampadd-Funktionen in generierten Spaltenausdrücken von Delta Lake verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.

Unterstützung für SQL-Pipeline-Syntax

In Databricks Runtime 16.2 und höher können Sie SQL-Pipelines verfassen. Eine SQL-Pipeline strukturiert eine Standardabfrage, z. B. SELECT c2 FROM T WHERE c1 = 5, in eine Schritt-für-Schritt-Sequenz, wie im folgenden Beispiel gezeigt:

FROM T
|> SELECT c2
|> WHERE c1 = 5

Informationen zur unterstützten Syntax für SQL-Pipelines finden Sie unter SQL-Pipelinesyntax.

Hintergrundinformationen zu dieser branchenübergreifenden Erweiterung finden Sie unter SQL Has Problems. Wir können sie beheben: Pipe-Syntax in SQL (von Google Research).

HTTP-Anforderung mithilfe der http_request-Funktion durchführen

In Databricks Runtime 16.2 und höher können Sie HTTP-Verbindungen erstellen und über sie HTTP-Anforderungen mithilfe der http_request-Funktion vornehmen.

Aktualisieren auf DESCRIBE TABLE Gibt Metadaten als strukturiertes JSON zurück.

In Databricks Runtime 16.2 und höher können Sie den DESCRIBE TABLE AS JSON Befehl verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.

Sortierungen ohne Beachtung nachstehender Leerzeichen

Databricks Runtime 16.2 fügt Unterstützung für kollationen hinzu, die unempfindlich gegenüber nachgestellten Leerzeichen sind, und erweitert damit die bereits in Databricks Runtime 16.1 eingeführte Sortierunterstützung. Beispielsweise behandeln diese Sortierungen 'Hello' und 'Hello ' gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.

Konvertieren von Apache Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen

Die CONVERT TO DELTA- und CREATE TABLE CLONE-Aussagen unterstützen jetzt die Konvertierung einer Apache Iceberg-Tabelle mit Bucket-Partitionierung in eine nicht-partitionierte Delta-Tabelle.

Standardzugriffsmodus (früher gemeinsam genutzter Zugriffsmodus) Compute unterstützt jetzt die Spark Scala-Methoden foreach, foreachBatch und flatMapGroupsWithState

In Databricks Runtime 16.2 und höher unterstützt der Standardzugriffsmodus für Compute jetzt die Scala-Methoden DataStreamWriter.foreachBatch und KeyValueGroupedDataset.flatMapGroupsWithState. In Databricks Runtime 16.1 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methode DataStreamWriter.foreach.

Fehlerkorrekturen

Verbesserte inkrementelle Klonverarbeitung

Diese Version enthält einen Fix für einen Randfall, bei dem ein inkrementelles CLONE möglicherweise Dateien, die bereits aus einer Quelltabelle kopiert wurden, in eine Zieltabelle erneut kopieren kann. Siehe Klonen einer Tabelle in Azure Databricks.

Bibliotheksaktualisierungen

  • Aktualisierte Python-Bibliotheken:
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • org.json4s.json4s-ast_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-core_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-jackson_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-scalap_2.12 von 3.7.0-M11 bis 4.0.7

Apache Spark

Databricks Runtime 16.2 umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-49966] Rückgängig machen von "[SC-179501][sql] Verwendung Invoke zur Implementierung JsonToStructs(from_json)"
  • [SPARK-50904] [SC-186976][sql] Korrektur der Abfrageausführung des Sortierungsausdrucks Walker
  • [SPARK-49666] [SQL] Aktivieren von Kürzungstests für inSet-Ausdruck
  • [SPARK-50669] [SC-184566][es-1327450][SQL] Ändern der Signatur des TimestampAdd-Ausdrucks
  • [SPARK-50795] [16.x][sc-186719][SQL] Zeitstempel als long Typ in describe LinkedHashMap speichern
  • [SPARK-50870] [SC-186950][sql] Fügen Sie die Zeitzone beim Konvertieren in den Timestamp in V2ScanRelationPushDown hinzu.
  • [SPARK-50735] [SC-186944][connect] Fehler in ExecuteResponseObserver führt zu unendlichen Reattachingsanforderungen.
  • [SPARK-50522] [SC-186500][sql] Unterstützung für unbestimmte Sortierung
  • [SPARK-50525] [SC-186058][sql] Definieren der InsertMapSortInRepartitionExpressions Optimierungsregel
  • [SPARK-50679] [SC-184572][sql] Duplizierte gemeinsame Ausdrücke in unterschiedlichen WITH-Klauseln sollten nur einmal abgebildet werden.
  • [SPARK-50847] [SC-186916] [SQL] Verhindern Sie die Anwendung von ApplyCharTypePadding auf bestimmte In-Ausdrücke
  • [SPARK-50714] [SC-186786][sql][SS] Aktivieren der Schemaentwicklung für TransformWithState bei Verwendung der Avro-Codierung
  • [SPARK-50795] [SC-186390][sql] Alle Datumsangaben in 'DESCRIBE AS JSON' im ISO-8601-Format und Datentypen darstellen als dataType.simpleString
  • [SPARK-50561] [SC-185924][sql] Databricks Runtime 16.x cherrypick: Verbessern der Typumwandlungs- und Grenzüberprüfung für die UNIFORM-SQL-Funktion
  • [SPARK-50700] [ SC-184845][sql] spark.sql.catalog.spark_catalog unterstützt builtin magischen Wert
  • [SPARK-50831] [SC-186736][sql] Standardmäßiges Kürzen der Sortierung aktivieren
  • [SPARK-50263] [SC-186793][connect] Ersetzen System.currentTimeMillis durch System.nanoTime
  • [SPARK-48730] [SC-184926][sql] Implementieren von CreateSQLFunctionCommand für SQL Scalar- und Tabellenfunktionen
  • [SPARK-50830] [SC-186718] [SQL] Zurückgeben eines Einzeldurchlaufergebnisses als Ergebnis der Dual-Run-Analyse
  • [SPARK-50707] [SC-186098][sql] Konvertierung in/von char/varchar aktivieren
  • [SPARK-49490] [ SC-182137][sql] Fügen Sie Benchmarks für initCap hinzu
  • [SPARK-50529] [SC-184535][sql] Ändern des char/varchar-Verhaltens in der spark.sql.preserveCharVarcharTypeInfo Konfiguration
  • [SPARK-49632] [SC-184179][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in CANNOT_PARSE_TIMESTAMP
  • [SPARK-50815] [SC-186487][python][SQL] Behebung eines Fehlers, bei dem das Übergeben von NULL-Varianten in createDataFrame bewirkt, dass dies fehlschlägt und die Variant-Unterstützung in createDataFrame in Spark Connect hinzufügt.
  • [SPARK-50828] [SC-186493][python][ML][connect] Wird abgewertet pyspark.ml.connect
  • [SPARK-50600] [SC-186057][connect][SQL] Set für Analysefehler analysiert
  • [SPARK-50824] [ SC-186472][python] Vermeiden Sie das Importieren optionaler Python-Pakete zur Überprüfung
  • [SPARK-50755] [SC-185521][sql] Hübsche Plananzeige für InsertIntoHiveTable
  • [SPARK-50789] [SC-186312][connect] Die Eingaben für eingegebene Aggregationen sollten analysiert werden.
  • [SPARK-50791] [SC-185867][sc-186338][SQL] Beheben von NPE im State Store Fehlerbehandlungsproblemen
  • [SPARK-50801] [SC-186365] [SQL] Verbessern PlanLogger.logPlanResolution , sodass es nur ungelöste und aufgelöste Pläne anzeigt
  • [SPARK-50749] [SC-185925][sql] Beheben des Sortierfehlers in der CommutativeExpression.gatherCommutative-Methode
  • [SPARK-50783] [ SC-186347] Vereinheitlichen der JVM-Profilergebnis-Dateinamen und -Gestaltung auf DFS
  • [SPARK-50790] [SC-186354][python] Implementieren von parse json in pyspark
  • [SPARK-50738] [ SC-184856][python] Upgrade schwarz auf 23.12.1
  • [SPARK-50764] [ SC-185930][python] Verfeinern der Docstring von xpath-verwandten Methoden
  • [SPARK-50798] [ SC-186277][sql] Verbessern NormalizePlan
  • [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integration mit RocksDB und RocksDBFileManager
  • [SPARK-50779] [SC-186062][sql] Hinzufügen eines Featurekennzeichnungs für Sortierungen auf Objektebene
  • [SPARK-50778] [SC-186183][python] Hinzufügen von metadataColumn zu PySpark DataFrame
  • [SPARK-49565] [SC-186056][sql] Databricks Runtime 16.x cherrypick: Verbessern automatisch generierter Ausdrucksaliasen mit SQL-Pipeoperatoren
  • [SPARK-50541] [16.x][sc-184937] Tabelle als JSON beschreiben
  • [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x Cherrypick: Beibehalten von Tabellenaliasen nach SET, EXTEND, DROP-Operatoren
  • [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogramNumeric
  • [SPARK-49025] [SC-174667] Synchronisiere Delta-Code-Unterschiede mit Databricks Runtime
  • [SPARK-50752] [SC-185547][python][SQL] Einführen von Konfigurationen für die Optimierung von Python-UDF ohne Pfeil
  • [SPARK-50705] [SC-185944][sql] Sperrfrei machen QueryPlan
  • [SPARK-50690] [16.x][sc-184640][SQL] Diskrepanzen bei der Anführungszeichenverwendung in Ansichtsabfrageausgabespalten beheben
  • [SPARK-50746] [SC-184932][sql] Ersetzen Sie Either durch VariantPathSegment.
  • [SPARK-50715] [ SC-185546][python][CONNECT] SparkSession.Builder legt die Konfigurationen im Batch fest.
  • [SPARK-50480] [SC-183359][sql] Erweiterung von CharType und VarcharType aus StringType
  • [SPARK-50675] [ SC-184539][sql] Unterstützung von Tabellen- und Ansichtsebenen-Kollationen
  • [SPARK-50409] [ SC-184516][sql] Fix set statement to ignore ; at the end of SET;, SET -v; and SET key;
  • [SPARK-50743] [SC-185528][sql] Normalize CTERelationDef und CTERelationRef IDs
  • [SPARK-50693] [ SC-184684][connect] Die Eingaben für TypedScalaUdf sollten analysiert werden.
  • [SPARK-50744] [SC-184929][sql] Fügen Sie einen Testfall für die Ansichts-/CTE-Namensauflösungsrangfolge hinzu.
  • [SPARK-50710] [SC-184767][connect] Unterstützung für optionale Client-Wiederverbindung zu Sitzungen nach Freigabe hinzufügen
  • [SPARK-50703][ SC-184843][python] Verfeinerung des docstrings von regexp_replace, regexp_substr und regexp_instr
  • [SPARK-50716] [SC-184823][Kern] Behebung der Bereinigungslogik für symbolische Verknüpfungen in der JavaUtils.deleteRecursivelyUsingJavaIO-Methode
  • [SPARK-50630] [SC-184443][sql] Fehlerbehebung bei der Ordnungsunterstützung für Pipe-SQL-AGGREGAT-Operatoren.
  • [SPARK-50614] [SC-184729][sql] Hinzufügen von Variant-Zerlegungsunterstützung für Parquet
  • [SPARK-50661] [SASP-4936] Hinzufügen der Abwärtskompatibilität für alte Client-FEB.
  • [SPARK-50676] [SC-184641][sql] Entfernen ungenutztes private lazy val mapValueContainsNull aus ElementAt
  • [SPARK-50515] [SC-183813][core] Hinzufügen einer schreibgeschützten Schnittstelle zu SparkConf
  • [SPARK-50697] [ SC-184702][sql] Aktivieren der Tail-Rekursion nach Möglichkeit
  • [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Beheben des Statusschemas für FlatMapGroupsWithState in Spark Connect, wenn kein Anfangszustand vorhanden ist
  • [SPARK-50701] [ SC-184704][python] Festlegen, dass Plotten die minimale Plotly-Version erfordert
  • [SPARK-50702] [SC-184727][python] Verfeinere den Docstring von regexp_count, regexp_extract und regexp_extract_all
  • [SPARK-50499] [SC-184177][python] Verfügbarmachen von Metriken von BasePythonRunner
  • [SPARK-50692] [ SC-184705][16.x] Hinzufügen der RPAD-Pushdownunterstützung
  • [SPARK-50682] [SC-184579][sql] Innerer Alias sollte kanonisiert werden.
  • [SPARK-50699] [ SC-184695][python] Analysieren und Generieren einer DDL-Zeichenfolge mit einer angegebenen Sitzung
  • [SPARK-50573] [SC-184568][ss] Hinzufügen der Statusschema-ID zu Statuszeilen zur Schema-Evolution
  • [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Behebung der Spark Connect Scala foreachBatch-Implementierung. zur Unterstützung von Dataset[T].
  • [SPARK-50689] [SC-184591][sql] Deterministische Sortierung in LCA-Projektlisten erzwingen
  • [SPARK-50696] [SC-184667][python] Optimieren des Py4J-Aufrufs für die DDL-Analysemethode
  • [SPARK-49670] [SC-182902][sql] Aktivieren der Kürzungssortierung für alle Passthroughausdrücke
  • [SPARK-50673] [SC-184565][ml] Vermeiden Sie das Durchlaufen von Modellkoeffizienten zweimal im Word2VecModel Konstruktor.
  • [SPARK-50687] [SC-184588][python] Optimieren der Logik zum Abrufen von Stack-Traces für DataFrameQueryContext
  • [SPARK-50681] [SC-184662][python][CONNECT] Zwischenspeichern des analysierten Schemas für MapInXXX und ApplyInXXX
  • [SPARK-50674] [SC-184589][python] Fixüberprüfung auf das Vorhandensein der "terminate"-Methode in der UDTF-Auswertung
  • [SPARK-50684] [SC-184582][python] Verbessern der Py4J-Leistung in DataFrameQueryContext
  • [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Fügen Sie Unterstützung für neue Versionen von Statusmetadaten für TransformWithStateInPandas hinzu.
  • [SPARK-50602] [SC-184439][sql] Fixtransponierung, um eine ordnungsgemäße Fehlermeldung anzuzeigen, wenn ungültige Indexspalten angegeben werden
  • [SPARK-50650] [ SC-184532][sql] Verbesserung der Protokollierung im Single-Pass-Analyzer
  • [SPARK-50665] [SC-184533][sql] Ersetzen von LocalRelation durch ComparableLocalRelation in NormalizePlan
  • [SPARK-50644] [SC-184486][sql] Varianten-Struktur im Parquet-Leser lesen.
  • [SPARK-49636] [SC-184089][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in INVALID_ARRAY_INDEX und INVALID_ARRAY_INDEX_IN_ELEMENT_AT
  • [SPARK-50659] [SC-184514][sql] Ausgabeberechnung für Union umstrukturieren, damit sie im Einzelpass-Analyzer wiederverwendet werden kann.
  • [SPARK-50659] [SC-184512][sql] Fehler im Zusammenhang mit Union zu QueryCompilationErrors verschieben
  • [SPARK-50530] [SC-183419][sql] Behebung der fehlerhaften Berechnung des impliziten Zeichenfolgentyps.
  • [SPARK-50546] [SC-183807][sql] Hinzufügen der Unterstützung von Unterabfragen zur Koersion des Sortiertyps
  • [SPARK-50405] [SC-182889][sql] Korrekte Behandlung der Sortierungstypkoerzierung bei komplexen Datentypen
  • [SPARK-50637] [SC-184434][sql] Code-Stil für den Single-Pass-Analyzer beheben
  • [SPARK-50638] [SC-184435][sql] Umgestalten Sie die Ansichtsauflösung in die separate Datei, um sie im Single Pass Analyzer wiederzuverwenden.
  • [SPARK-50615] [SC-184298][sql] Push-Variante in Scan.
  • [SPARK-50619] [SC-184210][sql] Refactor von VariantGet.cast zur Zusammenfassung der Cast-Argumente
  • [SPARK-50599] [SC-184058][sql] Erstellen Sie die DataEncoder-Eigenschaft, die Avro- und UnsafeRow-Codierung ermöglicht
  • [SPARK-50076] [ SC-183809] Beheben von Protokollschlüsseln
  • [SPARK-50597] [SC-183972][sql] Refaktorierung der Batcherstellung in Optimizer.scala und SparkOptimizer.scala
  • [SPARK-50339] [ SC-183063][spark-50360][SS] Aktivieren des Änderungsprotokolls zum Speichern von Abstammungsinformationen
  • [SPARK-50526] [SC-183811][ss] Hinzufügen des Codierungsformats des Speichers in das Offset-Log und Blockieren von nicht unterstützten zustandsbehafteten Operatoren bei der Verwendung von avro.
  • [SPARK-50540] [SC-183810][python][SS] Fixzeichenfolgenschema für StatefulProcessorHandle
  • [SPARK-50157] [SC-183789][sql] Verwenden von SQLConf, das von SparkSession zuerst bereitgestellt wird.
  • [SPARK-48898] [SC-183793][sql] Legen Sie die Nullierbarkeit im Variant-Schema richtig fest.
  • [SPARK-50559] [SC-183814][sql] Speichere die Ausgaben von Except, Intersect und Union als lazy vals
  • Unterstützung verschachtelter korrelierter With-Ausdrücke
  • [SPARK-50428] [SC-183566][ss][PYTHON] Unterstützen TransformWithStateInPandas in Batchabfragen
  • [SPARK-50063] [SC-183350][sql][CONNECT] Hinzufügen von Unterstützung für Variant im Spark Connect Scala-Client
  • [SPARK-50544] [ SC-183569][python][CONNECT] Implementieren StructType.toDDL
  • [SPARK-50443] [SC-182590][ss] Beheben von Maven-Buildfehlern, die von Guava-Cache in RocksDBStateStoreProvider eingeführt wurden
  • [SPARK-50491] [SC-183434][sql] Fehler beheben, bei dem leere BEGIN-END-Blöcke einen Fehler auslösen
  • [SPARK-50536] [SC-183443][core] Archivdateigrößen in SparkContext und Executor protokollieren
  • [SPARK-45891] [SC-183439][sql] Variant-Binärdatei aus geschredderten Daten neu erstellen.
  • [SPARK-49565] [SC-183465][sql] Hinzufügen der SQL-Pipesyntax für den FROM-Operator
  • [SPARK-50497] [SC-183338][sql] Abfragen mit einer eindeutigen Meldung fehlschlagen lassen, wenn MultiAlias eine Nicht-Generator-Funktion enthält
  • [SPARK-50460] [SC-183375][python][CONNECT] Verallgemeinern und Vereinfachen der Ausnahmebehandlung von Connect
  • [SPARK-50537] [SC-183452][connect][PYTHON] Fixkomprimierungsoption, die überschrieben wird df.write.parquet
  • [SPARK-50329] [SC-183358][sql] Korrektur von InSet$toString
  • [SPARK-50524] [SC-183364][sql] Warnmeldung auf Debug-Ebene herabsetzen
  • [SPARK-50528] [ SC-183385][connect] Wechseln InvalidCommandInput zum gemeinsamen Modul
  • [SPARK-50017] [ SC-182438][ss] Unterstützung der Avro-Codierung für den Operator TransformWithState
  • [SPARK-50463] [SC-182833][sql] Korrektur bei der Umwandlung von Spaltenar zu Zeilen
  • [SPARK-50235] [SC-180786][sql] Aufräumen der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
  • [SPARK-50516] [SC-183279][ss][MINOR] Test zum Beseitigen des init-Zustands-bezogenen Problems zur Verwendung von StreamManualClock.
  • [SPARK-50478] [ SC-183188][sql] Korrektur der StringType-Übereinstimmung
  • [SPARK-50492] [SC-183177][ss] Fix java.util.NoSuchElementException, wenn die Ereigniszeitspalte nach dropDuplicatesWithinWatermark gelöscht wird
  • [SPARK-49566] [ SC-182589][sql] Hinzufügen einer SQL-Pipesyntax für den SET Operator
  • [SPARK-50449] [SC-183178][sql] Korrigieren der SQL-Skripting-Grammatik, die leere Textkörper für Schleifen, WENN und CASE zulässt
  • [SPARK-50251] [SC-180970][python] Zu PySpark hinzufügen getSystemPropertySparkContext
  • [SPARK-50421] [SC-183091][core] Korrektur der speicherbezogenen Konfiguration für Executor, wenn mehrere Ressourcenprofile aktiv sind
  • [SPARK-49461] [ SC-179572][ss] Persistente Checkpoint-ID zum Commitment von Logs und deren Rücklesen
  • [SPARK-50343] [SC-183119][spark-50344][SQL] Hinzufügen der SQL-Pipesyntax für die DROP- und AS-Operatoren
  • [SPARK-50481] [SC-182880][core] Verbesserung von SortShuffleManager.unregisterShuffle, um die Logik der Prüfsummendatei zu überspringen, wenn die Prüfsumme deaktiviert ist
  • [SPARK-50498] [ SC-183090][python] Vermeiden Sie unnötige Py4j-Aufrufe in listFunctions
  • [SPARK-50489] [SC-183053][sql][PYTHON] Selbst-Join nach applyInArrow beheben
  • [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres-Fehlerbehebung XOR-Pushdown

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt die in den letzten 2 Jahren veröffentlichten ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter (ODBC herunterladen, JDBC herunterladen).

Wartungsupdates

Siehe Databricks Runtime 16.2 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.1 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die Databricks-Runtime-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu17.54+21-CA
  • Scala: 2.12.15
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.3.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotierte Typen 0.7.0 asttokens 2.0.5 Astunparse 1.6.3
Autokommand 2.2.2 Azure Core 1.31.0 Azure-Speicher-Blob 12.23.0
Azure-Speicher-Datei-Datensee 12.17.0 backports.tarfile 1.2.0 schwarz 24.4.2
Blinker 1.7.0 Boto3 1.34.69 Botocore 1.34.69
CacheWerkzeuge 5.3.3 Zertifizieren 2024.6.2 CFFI 1.16.0
Chardet 4.0.0 Charset-Normalizer 2.0.4 Klicken 8.1.7
Wolkengurke 2.2.1 Kommunikation 0.2.1 Contourpy 1.2.0
Kryptographie 42.0.5 Fahrradfahrer 0.11.0 Cython 3.0.11
Databricks-SDK 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
Dekorateur 5.1.1 Deprecated 1.2.14 Distlib 0.3.8
Docstring zu Markdown 0.11 Einstiegspunkte 0.4 ausführen 0.8.3
Übersicht der Facetten 1.1.1 Dateisperrung 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
Google-Authentifizierung 2.35.0 Google-Cloud-Core 2.4.1 Google Cloud-Speicher 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
GRPCIO 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3,7 importlib-metadata 6.0.0 importlib_resources 6.4.0
beugen 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-Erweiterungen 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-semantic-conventions 0.48b0
Packen 24.1 Pandas 1.5.3 Parso 0.8.3
Pfadangabe 0.10.3 Sündenbock 0.5.6 pexpect 4.8.0
Kissen 10.3.0 pip 24.2 platformdirs 3.10.0
Handlung 5.22.0 plugin-fähig 1.0.0 Prompt-Toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 15.0.2 Pyasn1 0.4.8 Pyasn1-Module 0.2.8
pyccolo 0.0.65 Pycparser 2.21 Pydantisch 2.8.2
pydantic_core 2.20.1 Pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
Pyparsing 3.0.9 Pyright 1.1.294 Python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.10.0 pytoolconfig 1.2.6
Pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
Anforderungen 2.32.2 Seil 1.12.0 rsa 4,9
s3transfer 0.10.2 scikit-learn 1.4.2 SciPy 1.13.1
Seegeboren 0.13.2 setuptools 74.0.0 sechs 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
Stapeldaten 0.2.0 StatistikModelle 0.14.2 Hartnäckigkeit 8.2.2
Threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.4.1 Traitlets 5.14.3 Typwächter 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 Anfragetypen 2.31.0.0 types-setuptools 68.0.0.0
Typen-6 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.16
virtualenv 20.26.2 Wadllib 1.3.6 wcwidth 0.2.5
Was ist neu im Patch 1.0.2 Rad 0.43.0 Eingehüllt 1.14.1
yapf 0.33.0 ZIPP 3.17.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der CRAN-Momentaufnahme vom 04.08.2024 des Posit Package Managers installiert: https://packagemanager.posit.co/cran/2024-08-04/.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 16.1.0 askpass 1.2.0 assertthat 0.2.1
Backports 1.5.0 Basis 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
Bitops 1.0-8 Blob 1.2.4 Booten 1.3-30
brauen 1.0-10 Brio 1.1.5 Besen 1.0.6
bslib 0.8.0 cachem 1.1.0 Callr 3.7.6
Einfügezeichen 6.0-94 cellranger 1.1.0 Chron 2.3-61
class 7.3-22 cli 3.6.3 Clipr 0.8.0
Uhr 0.7.1 Cluster 2.1.6 Codetools 0.2-20
Farbraum 2.1-1 Commonmark 1.9.1 Compiler 4.4.0
config 0.3.2 konfliktbehaftet 1.2.0 cpp11 0.4.7
Buntstift 1.5.3 Zugangsdaten 2.0.1 curl 5.2.1
data.table 1.15.4 Datensätze 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Beschreibung 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.36
Abwärtsbeleuchtung 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 Ellipsen 0.3.2 Evaluieren 0.24.0
fansi 1.0.6 Farben 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 Vergessene Katzen 1.0.0 foreach 1.5.2
Fremd 0.8-86 schmieden 0.2.0 fs 1.6.4
Zukunft 1.34.0 future.apply 1.11.2 gurgeln 1.5.2
Generika 0.1.3 Gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 Globale Variablen 0.16.3 Leim 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Graphik 4.4.0 grDevices 4.4.0 Raster 4.4.0
gridExtra 2.3 gsubfn 0.7 gt 0.11.0
gtable 0.3.5 Schutzhelm 1.4.0 Zufluchtsort 2.5.4
Highr 0.11 hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteratoren 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 Knitr 1.48 Kennzeichnung 0.4.3
später 1.3.2 Gitter 0.22-5 Lava 1.8.0
Lebenszyklus 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Abschlag 1.13 MASSE 7.3-60.0.1
Matrix 1.6-5 Memoise 2.0.1 Methodik 4.4.0
mgcv 1.9-1 Pantomime 0,12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 parallel 4.4.0
parallel verlaufend 1.38.0 Säule 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 Fortschritt 1.2.3
progressr 0.14.0 verspricht 1.3.0 Prototyp 1.0.0
Stellvertreter 0.4-27 PS 1.7.7 purrr 1.0.2
R6 2.5.1 Ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reaktivierbar 0.4.4
reactR 0.6.0 Readr 2.1.5 readxl 1.4.3
Rezepte 1.1.0 Rückspiel 2.0.0 Rematch2 2.1.2
Fernzugriffe 2.5.0 Reprex 2.1.1 Umform2 1.4.4
rlang 1.1.4 Rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 Sass 0.4.9
Waagen 1.3.0 Selektor 0.4-2 Sitzungsinformationen 1.2.2
Gestalt 1.4.6.1 glänzend 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 SparkR 3.5.2 räumlich 7.3-17
Splines 4.4.0 sqldf 0.4-11 SQUAREM 2021.1
Statistiken 4.4.0 stats4 4.4.0 stringi 1.8.4
stringr 1.5.1 Überleben 3.6-4 stolzieren 5.17.14.1
sys 3.4.2 systemfonts 1.1.0 tcltk 4.4.0
testthat 3.2.1.1 Textgestaltung 0.4.0 Tibble 3.2.1
tidyr 1.3.1 tidyselect 1.2.1 tidyverse 2.0.0
Zeitänderung 0.3.0 timeDate 4032.109 tinytex 0.52
Werkzeuge 4.4.0 tzdb 0.4.0 URL-Prüfer 1.0.1
verwendenSieDies 3.0.0 utf8 1.2.4 Utils 4.4.0
uuid 1.2-1 V8 4.4.2 vctrs 0.6.5
viridisLite 0.4.2 Vroom 1.6.5 Waldo 0.5.2
Backenbart 0.4.1 withr 3.0.1 xfun 0.46
xml2 1.3.6 xopen 1.0.1 xtable 1.8-4
yaml 2.3.10 zeallot 0.1.0 komprimieren 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws AWS-Java-SDK-Konfiguration 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryoschattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone fehleranfällige_Annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 26.05.23
com.google.guava Guava 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger Profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics Metrics Core 4.2.19
io.dropwizard.metrics Metrics-Graphite 4.2.19
io.dropwizard.metrics Metriken-Gesundheitsprüfungen 4.2.19
io.dropwizard.metrics Metrics-Jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.108.Final
io.netty Netty Buffer 4.1.108.Final
io.netty Netty-Codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty Netty-Codec-Socken 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty Netty-Handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty Netty-Resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty Netty-Transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Essiggurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant Ant-Launcher 1.10.11
org.apache.arrow Pfeilformat 15.0.0
org.apache.arrow Pfeilspeicherkern 15.0.0
org.apache.arrow Arrow-memory-netty 15.0.0
org.apache.arrow Pfeilvektor 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator Kurator-Client 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Kurator-Rezepte 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeitumgebung 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common (Note: If this is a product name or a standard technical term, it may remain untranslated in the target text. However, if translations or further context are customarily provided in the industry for such components, additional explanatory text could be included alongside the original term in a real-world translation, but without more context here, it's assumed to be a proper noun.) 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc Orc-Shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Zookeeper 3.9.2
org.apache.zookeeper Zookeeper-Jute 3.9.2
org.checkerframework Prüferqual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty Jetty-Fortsetzung 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty Jetty-IO 9.4.52.v20230823
org.eclipse.jetty Jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty Jetty-Sicherheit 9.4.52.v20230823
org.eclipse.jetty Jetty-Server 9.4.52.v20230823
org.eclipse.jetty Jetty-servlet 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlets 9.4.52.v20230823
org.eclipse.jetty Jetty-Util 9.4.52.v20230823
org.eclipse.jetty Jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-Webapp 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core Jersey-Client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core Jersey-Server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Ruhezustands-Validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 4.0.7
org.json4s json4s-core_2.12 4.0.7
org.json4s json4s-jackson-core_2.12 4.0.7
org.json4s json4s-jackson_2.12 4.0.7
org.json4s json4s-scalap_2.12 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Klemmstücke 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testschnittstelle 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest Scalatest-kompatibel 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
Stax stax-api 1.0.1