Freigeben über


Databricks Runtime 10.1 (EoL)

Hinweis

Diese Databricks-Runtime-Version hat das Ende der Lebensdauer erreicht und ist nicht mehr verfügbar. Informationen zu End-of-Life-Daten finden Sie unter Ende des Supports und End-of-Life-Historie. Informationen über die Richtlinie und den Zeitplan für den Support von Databricks Runtime finden Sie unter Databricks Support-Laufzeiten.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 10.1 und Databricks Runtime 10.1 Photon, unterstützt von Apache Spark 3.2.0. Diese Version wurde von Databricks im November 2021 veröffentlicht. Photon ist als Public Preview verfügbar.

Neue Features und Verbesserungen

Neue Delta-Tabelleneinstellungen zum Komprimieren kleiner Dateien

Die Delta-Tabelleneigenschaft delta.autoOptimize.autoCompact akzeptiert jetzt die neuen Werte auto und legacy zusätzlich zu den vorhandenen Werten true und false. Wenn die Eigenschaft auf auto festgelegt wird (empfohlen), verwendet die automatische Komprimierung besser geeignete Standardwerte, zum Beispiel 32 MB als Zieldateigröße. Zukünftige Änderungen am Standardverhalten sind jedoch vorbehalten. Wenn die Eigenschaft auf legacy oder true festgelegt wird, verwendet Auto Compaction 128 MB als Zieldateigröße.

Anstatt diese Eigenschaft für eine einzelne Tabelle festzulegen, können Sie die spark.databricks.delta.autoCompact.enabled-Konfiguration auf auto, legacy oder true festlegen, um die automatische Komprimierung für alle Delta-Tabellen zu aktivieren. Diese Konfiguration hat während der aktuellen Sitzung Vorrang vor der Eigenschaft der verwandten Tabelle.

Die Zieldateigröße für die automatische Komprimierung kann mit der spark.databricks.delta.autoCompact.maxFileSize-Konfiguration gesteuert werden.

Weitere Informationen zur automatischen Komprimierung finden Sie unter AutoKomprimierung.

Neue Zeilengruppenmetriken für Parquet-Abfragescans

Abfragen mit Parquet-Scans zeigen nun Zeilengruppenmetriken auf der Spark-Benutzeroberfläche an. Diese Zeilengruppenmetriken lauten:

  • Gesamtanzahl der Parquet-Zeilengruppen
  • Anzahl gelesener Parquet-Zeilengruppen

Trigger.AvailableNow für Delta-Quellstreamingabfragen

Durch diese Änderung wird ein neuer Triggertyp für Delta-Quellstreamingabfragen in Scala unterstützt: Trigger.AvailableNow. Dieser ähnelt Trigger.Once, der alle verfügbaren Daten verarbeitet und die Abfrage dann beendet. Trigger.AvailableNow bietet jedoch eine bessere Skalierbarkeit, da Daten in mehreren Batches statt nur in einem verarbeitet werden können. Für diese Änderung wird keine neue Schnittstelle eingeführt, sondern eine vorhandene Spark-API implementiert. Dieser Trigger unterstützt auch alle Ratenbegrenzungsoptionen, die bereits von Delta als Quelle unterstützt werden.

Beispiel:

spark.readStream
  .format("delta")
  .option("maxFilesPerTrigger", "1")
  .load(inputDir)
  .writeStream
  .trigger(Trigger.AvailableNow)
  .option("checkpointLocation", checkpointDir)
  .start()

Details zu Trigger.AvailableNow finden Sie unter Was ist Auto Loader?.

Trigger.AvailableNow für Auto-Loader

Trigger.AvailableNow ist ein neuer Streamingtriggermodus, der Trigger.Once ähnelt. Trigger.Once verarbeitet alle verfügbaren Daten und beendet dann die Abfrage. Trigger.AvailableNow bietet eine bessere Skalierbarkeit, da Daten in mehreren Batches statt nur in einem verarbeitet werden können. Auto Loader unterstützt jetzt Trigger.AvailableNow sowohl im Verzeichnislistenmodus als auch im Dateibenachrichtigungsmodus für Scala. Details zu Trigger.AvailableNow finden Sie unter Was ist Auto Loader?.

Delta-Unterstützung für Hadoop-Dateisystemkonfigurationen, die über DataFrame-Optionen übergeben werden

Ähnlich wie Parquet unterstützt Delta jetzt das Lesen von Hadoop-Dateisystemkonfigurationen aus DataFrameReader- und DataFrameWriter-Optionen, wenn die Tabelle mithilfe von DataFrameReader.load(path) oder DataFrameWriter.save(path) gelesen oder geschrieben wird. Siehe Konfigurieren von Delta-Speicheranmeldeinformationen.

Asynchrone Zustandsprüfpunkte werden jetzt in zustandsbehafteten Streamingaufträgen unterstützt (Public Preview)

Asynchrone Zustandsprüfpunkte sind ein neues Feature, das potenziell die End-to-End-Microbatchlatenz bei zustandsbehafteten Streamingaufträgen mit großen Zustandsupdates reduziert. Weitere Informationen finden Sie unter Asynchrone Zustandsprüfpunkte für zustandsbehaftete Abfragen.

Sparklyr mit Durchleitung für Anmeldeinformationen

Sie können jetzt die sparklyr APIs verwenden, um Daten durch Credential Passthrough aus dem Cloudspeicher zu lesen und in diesen zu schreiben. Diese Funktionalität ist auf Standardcluster mit Einzelbenutzerzugriff beschränkt. Siehe Zugriff auf Azure Data Lake Storage mithilfe von Passthrough für Microsoft Entra ID-Anmeldeinformationen (Legacy)

Genauigkeitssteuerung in Databricks-Hilfsprogrammen mit data.summarize (Public Preview)

Ein neuer precise-Parameter für dbutils.data.summarize steuert die Genauigkeit von Zusammenfassungsergebnissen. Wenn precise auf „false“ (Standardwert) festgelegt ist, gibt die Zusammenfassung ungefähre Ergebnisse für eindeutige Werte, das Perzentil und die Werte häufiger Einträge zurück. Wenn precise auf „true“ festgelegt ist, werden Zusammenfassungen jetzt mit exakten eindeutigen Werten und exakten Werten häufiger Einträge berechnet, und Perzentile werden genauer geschätzt. Weitere Informationen finden Sie unter summarize-Befehl (dbutils.data.summarize).

Azure Databricks Notebooks jetzt mit dem IPython-Kernel kompatibel

Sie können einen Azure Databricks-Cluster jetzt dafür konfigurieren, den IPython-Kernel zum Ausführen von Python-Code zu verwenden. Die Verwendung des IPython-Kernels in Azure Databricks bietet Unterstützung für die Anzeige- und Ausgabetools von IPython. Darüber hinaus erfasst der IPython-Kernel die Stdout- und Stderr-Ausgaben von untergeordneten Prozessen, die von einem Notizbuch erstellt wurden, sodass diese Ausgabe in die Befehlsergebnisse des Notizbuchs aufgenommen werden kann.

Weitere Informationen finden Sie unter IPython-Kernel.

Neue Funktionen in Spark SQL

Die folgenden Objekte und Befehle wurden für die Arbeit mit Daten im Unity-Katalog (Vorschauversion) hinzugefügt:

Die folgenden Befehle wurden für Delta Sharing (Vorschauversion) hinzugefügt, damit Sie schreibgeschützte Daten für Empfänger*innen außerhalb Ihrer Organisation freigeben können:

Fehlerbehebungen

  • Ein Race-Condition-Problem wurde behoben, das zu einem Abfragefehler mit einem Beispiel wie IOException oder No FileSystem for scheme führen könnte oder bewirken könnte, dass Änderungen an sparkContext.hadoopConfiguration in Abfragen keine Wirkung zeigen.

Bibliotheksaktualisierungen

  • Aktualisierte Python-Bibliotheken:
    • filelock von 3.0.12 auf 3.3.1
    • Aktualisierung von koalas von 1.8.1 auf 1.8.2
    • plotly von 5.1.0 auf 5.3.0
  • Aktualisierte R-Bibliotheken:
    • bslib von 0.3.0 auf 0.3.1
    • caret von 6.0-88 auf 6.0-90
    • cpp11 von 0.3.1 auf 0.4.0
    • data.table von 1.14.0 auf 1.14.2
    • desc von 1.3.0 auf 1.4.0
    • diffobj von 0.3.4 auf 0.3.5
    • Aktualisierung von 0.6.27 auf 0.6.28
    • generics von 0.1.0 auf 0.1.1
    • hms von 1.1.0 auf 1.1.1
    • knitr von 1.34 auf 1.36
    • lattice von 0.20-44 auf 0.20-45
    • Lebenszyklus von 1.0.0 auf 1.0.1
    • lubridate von 1.7.10 auf 1.8.0
    • mgcv von 1.8-37 auf 1.8-38
    • mime von 0.11 auf 0.12
    • pkgload von 1.2.2 auf 1.2.3
    • progressr von Version 0.8.0 auf 0.9.0
    • rcmdcheck von 1.3.3 auf 1.4.0
    • readr von 2.0.1 auf 2.0.2
    • Rezepte von 0.1.16 auf 0.1.17
    • remotes von 2.4.0 auf 2.4.1
    • rlang von 0.4.11 auf 0.4.12
    • rvest von 1.0.1 auf 1.0.2
    • shiny von 1.6.0 auf 1.7.1
    • stringi von 1.7.4 auf 1.7.5
    • testthat von 3.0.4 auf 3.1.0
    • tidyr von 1.1.3 auf 1.1.4
    • tinytex von 0.33 auf 0.34
    • usethis von Version 2.0.1 auf Version 2.1.2
    • xfun von 0.26 auf 0.27
  • Aktualisierte Java-Bibliotheken:
    • com.zaxxer.HikariCP von 3.1.0 auf 4.0.3

Apache Spark

Databricks Runtime 10.1 enthält Apache Spark 3.2.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 10.0 (EoL) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-37037] [SQL] Sortierung von Bytearrays durch Vereinheitlichen der compareTo-Funktion von UTF8String und ByteArray verbessern
  • [SPARK-37091] [R] Systemanforderungen, um Java < 18 zu berücksichtigen
  • [SPARK-37041] [SQL] Backport von HIVE-15025: Unterstützung von Secure Sockets Layer (SSL) für HMS
  • [SPARK-37098] [SQL] ALTER TABLE-Eigenschaften sollten den Cache ungültig machen
  • [SPARK-36992] [SQL] Leistung der Sortierung von Bytearrays durch Vereinheitlichen der getPrefix-Funktion von UTF8String und ByteArray verbessern
  • [SPARK-37047] [SQL] lpad- und rpad-Funktionen für Binärzeichenfolgen hinzufügen
  • [SPARK-37076] [SQL] StructType.toString explizit für Scala 2.13 implementieren
  • [SPARK-37075] [SQL] Kompilierung von UDAF-Ausdrücken von sql/catalyst zu sql/core verschieben
  • [SPARK-37084] [SQL] spark.sql.files.openCostInBytes auf bytesConf festlegen
  • [SPARK-37088] [PYSPARK][sql] Writer-Thread darf nicht auf Eingaben zugreifen, nachdem der Listener für den Abschluss der Aufgabe ausgelöst wurde.
  • [SPARK-37069] [SQL] Ordnungsgemäßer Rückgriff, wenn Hive.getWithoutRegisterFns nicht verfügbar ist
  • [SPARK-37050] [PYTHON] Conda-Installationsanweisungen aktualisieren
  • [SPARK-37067] [SQL] ZoneId.of() zur Verarbeitung von timezone-Zeichenfolgen in DatetimeUtils verwenden
  • [SPARK-35925] [SQL] DayTimeIntervalType in der width-bucket-Funktion unterstützen
  • [SPARK-35926] [SQL] Unterstützung für YearMonthIntervalType bei width_bucket hinzufügen
  • [SPARK-35973] [SQL] Befehl SHOW CATALOGS hinzufügen
  • [SPARK-36922] [SQL] Die Funktionen SIGN und SIGNUM sollten ANSI-Intervalle unterstützen
  • [SPARK-37078] [CORE] Ältere Senkenkonstruktoren mit drei Parametern unterstützen
  • [SPARK-37061] [SQL] Problem mit CustomMetrics bei Verwendung innerer Klassen beheben
  • [SPARK-35918] [AVRO] Umgang mit Schemakonflikten bei Lese- und Schreibvorgängen vereinheitlichen und Fehlermeldungen verbessern
  • [SPARK-36871] [SQL] CreateViewStatement zum v2-Befehl migrieren
  • [SPARK-36898] [SQL] Shufflefaktor für Hashjoins sollte konfigurierbar sein
  • [SPARK-36921] [SQL] ANSI-Intervalle in DIV unterstützen
  • [SPARK-36794] [SQL] Doppelte Joinschlüssel beim Erstellen einer Beziehung für gemischte SEMI-/ANTI-Hashjoins ignorieren
  • [SPARK-36867] [SQL] Fehlermeldung mit GROUP BY Alias beheben
  • [SPARK-36914] [SQL] dropIndex und listIndexes in JDBC implementieren (MySQL-Dialekt)
  • [SPARK-35531] [SQL] HiveTable beim Aufruf von getPartitions direkt an HiveClient übergeben, um eine unnötige Konvertierung von HiveTable in CatalogTable und zurück in HiveTable zu vermeiden.
  • [SPARK-36718] [ SQL] Nur Projekte reduzieren, wenn wir keine kostspieligen Ausdrücke duplizieren
  • [SPARK-37046] [SQL]: ALTER VIEW behält nicht die Groß-/Kleinschreibung der Spaltennamen bei
  • [SPARK-36978] [SQL] Die InferConstraints-Regel sollte IsNotNull-Einschränkungen für das aufgerufene geschachtelte Feld erstellen, nicht für den geschachtelten Stammtyp
  • [SPARK-37052] [CORE] Spark sollte das Argument --verbose nur an die Hauptklasse übergeben, wenn es sich um die SQL-Shell handelt.
  • [SPARK-37017] [SQL] Synchronisierungsbereich reduzieren, um potenzielle Deadlocks zu verhindern
  • [SPARK-37032] [SQL] Fehlerhaften Link für SQL-Syntax auf der SQL-Referenzseite korrigieren
  • [SPARK-36905] [SQL] Problem beim Lesen von Hive-Ansichten ohne explizite Spaltennamen korrigieren
  • [SPARK-36678]SHOW TABLES standardmäßig auf den V2-Befehl umstellen
  • [SPARK-36943] [SQL] Lesbarkeit der Fehlermeldung für fehlende Spalten verbessern
  • [SPARK-36980] [SQL] INSERT-Unterstützungsabfrage mit CTE
  • [SPARK-37001] [SQL] Zweite Zuordnungsebene für endgültige Hashaggregation standardmäßig deaktivieren
  • [SPARK-36970] [SQL] Format B der date_format-Funktion manuell deaktivieren, damit Java 17 mit Java 8 kompatibel ist
  • [SPARK-36546] [SQL] Arrayunterstützung zur Union nach Namen hinzufügen
  • [SPARK-36979] [SQL] RewriteLateralSubquery-Regel zu nonExcludableRules hinzufügen
  • [SPARK-36949] [SQL] Hive-Anbietertabellen mit ANSI-Intervallen nicht erlauben
  • [SPARK-36849] [SQL] UseStatement zum v2-Befehlsframework migrieren
  • [SPARK-36868] [SQL] CreateFunctionStatement zum v2-Befehlsframework migrieren
  • [SPARK-36841] [SQL] ANSI-Syntax set catalog xxx zum Ändern des aktuellen Katalogs hinzufügen
  • [SPARK-36821] [SQL] Nachtrag: ColumnarBatch-Klasse sollte erweiterbar sein
  • [SPARK-36963] [SQL] max_by/min_by zu sql.functions hinzufügen
  • [SPARK-36913] [SQL] createIndex und IndexExists in DS V2 JDBC implementieren (MySQL-Dialekt)
  • [SPARK-36848] [SQL] ShowCurrentNamespaceStatement zum v2-Befehlsframework migrieren
  • [SPARK-36526] [SQL] DSV2-Indexunterstützung: supportsIndex-Schnittstelle hinzufügen
  • [SPARK-36960] [SQL] Filter mit ANSI-Intervallwerten an ORC pushen
  • [SPARK-36929] [SQL] Nicht verwendete Methode EliminateSubqueryAliasesSuite#assertEquivalent entfernen
  • [SPARK-36931] [SQL] Lesen und Schreiben von ANSI-Intervallen aus und in ORC-Datenquellen unterstützen
  • [SPARK-34980] [SQL] Durch Union zusammengefügte Partitionen in AQE unterstützen
  • [SPARK-36809] [SQL] Entfernen des Broadcasts für InSubqueryExec, das in DPP verwendet wird
  • [SPARK-36813] [SQL][python] Vorschlag einer Infrastruktur für as-of-Join und Implementierung von ps.merge_asof
  • [SPARK-36918] [SQL] Typen beim Vergleichen von Strukturen für unionByName ignorieren
  • [SPARK-36891] [SQL] SpecificParquetRecordReaderBase umgestalten und zusätzliche Abdeckung für vektorisierte Parquet-Decodierung hinzufügen
  • [SPARK-36920] [SQL] ANSI-Intervalle in ABS() unterstützen
  • [SPARK-36888] [SQL] Testfälle für sha2-Funktion hinzufügen
  • [SPARK-36889] [SQL] Berücksichtigung des spark.sql.parquet.filterPushdown durch den v2 Parquet-Scan-Generator
  • [SPARK-36830] [SQL] Lesen und Schreiben von ANSI-Intervallen aus und in JSON-Datenquellen unterstützen
  • [SPARK-36870] [SQL] Fehlerklasse INTERNAL_ERROR einführen
  • [SPARK-36831] [SQL] Lesen und Schreiben von ANSI-Intervallen aus und in CSV-Datenquellen unterstützen
  • [SPARK-36550] [SQL] Ursache bei Fehler der UDF-Reflektion angeben
  • [SPARK-36866] [SQL] Filter mit ANSI-Intervallwerten an Parquet pushen
  • [SPARK-33832] [SQL] Zwangsweise Vereinfachung und Verbesserung des Skew-Join-Codes
  • [SPARK-36642] [SQL] df.withMetadata pyspark-API hinzufügen
  • [SPARK-35765] [SQL] Eindeutige Aggregate sind nicht empfindlich gegenüber Duplikaten.
  • [SPARK-36825] [SQL] Lesen und Schreiben von Dataframes mit ANSI-Intervallen von und zu Parquet-Dateien
  • [SPARK-36829] [SQL] NULL-Überprüfung für collectionOperators umgestalten
  • [SPARK-32712] [SQL] Schreiben von Hive-Buckettabellen unterstützen (Hive-Dateiformate mit Hive-Hash)
  • [SPARK-36797] [SQL] Union sollte geschachtelte Spalten als Top-Level-Spalten auflösen
  • [SPARK-36838] [SQL] Leistung des von InSet generierten Codes verbessern
  • [SPARK-36683] [SQL] Neue integrierte SQL-Funktionen hinzufügen: SEC und CSC
  • [SPARK-36721] [SQL] Boolesche Gleichheitsformel vereinfachen, wenn eine Seite ein Literal ist
  • [SPARK-36760] [SQL] SupportsPushDownV2Filters-Schnittstelle hinzufügen
  • [SPARK-36652] [SQL] Dynamische Joinauswahl in AQE sollte nicht für nicht äquivalente Joins gelten
  • [SPARK-36745] [SQL] ExtractEquiJoinKeys sollte die ursprünglichen Prädikate für Joinschlüssel zurückgeben
  • [SPARK-36107] [SQL] Refaktoriere die ersten 20 Abfragefehler, um Fehlerklassen zu verwenden
  • [SPARK-32709] [SQL] Schreiben in Hive-Buckettabellen unterstützen (Parquet-/ORC-Format mit Hive-Hash)
  • [SPARK-36735] [SQL] Aufwand für die zwischengespeicherte Relation für DPP anpassen
  • [SPARK-33832] [SQL] Optimierte Skew Joins unterstützen, auch wenn zusätzliches Shuffling entsteht
  • [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec sollte alle Bedingungen anstelle der non-equi-Bedingung verwenden.
  • [SPARK-35221] [SQL] Überprüfung für unterstützte Joinhinweise hinzufügen
  • [SPARK-36814] [SQL] ColumnarBatch-Klasse sollte erweiterbar sein
  • [SPARK-36663] [SQL] Nur aus Zahlen bestehende Spaltennamen in ORC-Datenquellen unterstützen
  • [SPARK-36751] [SQL][python][R] Hinzufügen von Bit-/octet_length-APIs zu Scala, Python und R
  • [SPARK-36733] [SQL] Leistungsproblem in SchemaPruning bei Strukturen mit vielen Feldern beheben
  • [SPARK-36724] [SQL] timestamp_ntz als Typ für die time-Spalte in SessionWindow unterstützen
  • [SPARK-36556] [SQL] DSV2-Filter hinzufügen
  • [SPARK-36687] [SQL][core] Umbenennen von Fehlerklassen mit _ERROR Suffix
  • [SPARK-35803] [SQL] DataSource V2 CreateTempViewUsing unterstützen
  • [SPARK-36642] [SQL] Hinzufügen von df.withMetadata: eine syntaktische Vereinfachung zur Aktualisierung der Metadaten eines Dataframes

Wartungsupdates

Weitere Informationen finden Sie unter Databricks Runtime 10.1-Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 20.04.3 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.8.10
  • R: 4.1.1
  • Delta Lake: 1.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
Antergos Linux 2015.10 (ISO-Rolling) Appdirs 1.4.4 argon2-cffi 20.1.0
asynchroner Generator 1.10 Attrs 20.3.0 Backcall 0.2.0
Bleichmittel 3.3.0 Boto3 1.16.7 Botocore 1.19.7
Zertifizieren 2020.12.5 CFFI 1.14.5 Chardet 4.0.0
Fahrradfahrer 0.10.0 Cython 0.29.23 dbus-python 1.2.16
Dekorateur 5.0.6 defusedxml 0.7.1 Distlib 0.3.3
Distro-Informationen 0.23ubuntu1 Einstiegspunkte 0,3 Übersicht der Facetten 1.0.0
Dateisperrung 3.3.1 idna 2.10 ipykernel 5.3.4
ipython 7.22.0 ipython-genutils 0.2.0 ipywidgets 7.6.3
Jedi 0.17.2 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 Jupyter-Client 6.1.12
jupyter-core 4.7.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 Koalas 1.8.2 MarkupSafe 2.0.1
matplotlib 3.4.2 verstimmen 0.8.4 nbclient 0.5.3
nbconvert 6.0.7 nbformat 5.1.3 nest-asyncio 1.5.1
Notebook 6.3.0 numpy 1.19.2 Packen 20.9
Pandas 1.2.4 Pandocfilter 1.4.3 Parso 0.7.0
Sündenbock 0.5.1 pexpect 4.8.0 Pickleshare 0.7.5
Kissen 8.2.0 pip 21.0.1 Handlung 5.3.0
prometheus-client 0.10.1 Prompt-Toolkit 3.0.17 protobuf 3.17.2
psycopg2 2.8.5 ptyprocess 0.7.0 Pyarrow 4.0.0
Pycparser 2,20 Pygments 2.8.1 PyGObject 3.36.0
Pyparsing 2.4.7 Pyristent 0.17.3 python-apt 2.0.0+ubuntu0.20.4.6
Python-dateutil 2.8.1 Pytz 2020.5 pyzmq 20.0.0
Anforderungen 2.25.1 requests-unixsocket 0.2.0 s3transfer 0.3.7
scikit-lernen 0.24.1 SciPy 1.6.2 Seegeboren 0.11.1
Send2Trash 1.5.0 setuptools 52.0.0 sechs 1.15.0
ssh-import-id 5.10 StatistikModelle 0.12.2 Hartnäckigkeit 8.0.1
beendet 0.9.4 Testpfad 0.4.4 Threadpoolctl 2.1.0
Tornado 6.1 Traitlets 5.0.5 unbeaufsichtigte Aktualisierungen 0,1
urllib3 1.25.11 virtualenv 20.4.1 wcwidth 0.2.5
Webkodierungen 0.5.1 Rad 0.36.2 widgetsnbextension 3.5.1

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 26.10.2021 installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Askpass 1.1 prüfen, dass 0.2.1 Backports 1.2.1
Basis 4.1.1 base64enc 0.1-3 Bit 4.0.4
Bit64 4.0.5 Blob 1.2.2 Boot 1.3-28
brauen 1.0-6 Brio 1.1.2 Besen 0.7.9
bslib 0.3.1 cachem 1.0.6 Callr 3.7.0
Caret 6.0-90 CellRanger 1.1.0 Chron 2.3-56
Klasse 7.3-19 cli 3.0.1 Schermaschine 0.7.1
Gruppe 2.1.2 Codetools 0.2-18 Farbraum 2.0-2
Commonmark 1.7 Kompilierer 4.1.1 Konfiguration 0.3.1
cpp11 0.4.0 Buntstift 1.4.1 Anmeldeinformationen 1.3.1
curl 4.3.2 data.table 1.14.2 Datensätze 4.1.1
DBI 1.1.1 dbplyr 2.1.1 Beschreibung 1.4.0
devtools 2.4.2 diffobj 0.3.5 verdauen 0.6.28
dplyr 1.0.7 dtplyr 1.1.0 e1071 1.7-9
Ellipse 0.3.2 Evaluieren 0.14 Fans 0.5.0
Farben 2.1.0 fastmap 1.1.0 fontawesome 0.2.2
Sträflinge 0.5.1 foreach 1.5.1 Fremd 0.8-81
schmieden 0.2.0 fs 1.5.0 Zukunft 1.22.1
future.apply 1.8.1 gurgeln 1.2.0 Generika 0.1.1
Gert 1.4.1 ggplot2 3.3.5 Gh 1.3.0
gitcreds 0.1.1 glmnet 4.1-2 Globale Werte 0.14.0
Klebstoff 1.4.2 googledrive 2.0.0 googlesheets4 1.0.0
Gower 0.2.2 Grafiken 4.1.1 grGeräte 4.1.1
Raster 4.1.1 gridExtra 2.3 gsubfn 0,7
g-Tabelle 0.3.0 Hafen 2.4.3 Highr 0.9
HMS 1.1.1 HTML-Werkzeuge 0.5.2 htmlwidgets 1.5.4
httpuv 1.6.3 httr 1.4.2 Hwriter 1.3.2
hwriterPlus 1.0-3 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-12 Isobande 0.2.5 Iteratoren 1.0.13
jquerylib 0.1.4 jsonlite 1.7.2 KernSmooth 2.23-20
Knitr 1,36 Etikettierung 0.4.2 später 1.3.0
Gitter 0.20-45 Lava 1.6.10 Lebenszyklus 1.0.1
„listenv“ 0.8.0 Schmiermittel 1.8.0 magrittr 2.0.1
Abschlag 1.1 MASSE 7.3-54 Matrix 1.3-4
Zwischenspeichern 2.0.0 Methodik 4.1.1 mgcv 1.8-38
Mime-Kunst 0,12 ModelMetrics 1.2.2.2 Modellierer 0.1.8
munsell 0.5.0 nlme 3.1-152 NNET 7.3-16
numDeriv 2016.8 bis 1.1 OpenSSL 1.4.5 parallel 4.1.1
parallel dazu 1.28.1 Säule 1.6.4 pkgbuild 1.2.0
pkgconfig 2.0.3 pkgload 1.2.3 PLOGR 0.2.0
plyr 1.8.6 loben 1.0.0 prettyunits 1.1.1
pROC 1.18.0 Prozessx 3.5.2 prodlim 2019.11.13
Fortschritt 1.2.2 progressr 0.9.0 Versprechungen 1.2.0.1
Prototyp 1.0.0 Stellvertreter 0.4-26 P.S. 1.6.0
schnurren 0.3.4 r2d3 0.2.5 R6 2.5.1
randomForest (Zufälliger Wald) 4.6-14 Rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrauer 1.1-2 Rcpp 1.0.7 READR 2.0.2
readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.3.1 Rezepte 0.1.17 Rückspiel 1.0.1
Rückspiel2 2.1.2 fernbedienungen 2.4.1 reproduzierbares Beispiel 2.0.1
Umform2 1.4.4 rlang 0.4.12 RMarkdown 2.11
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1-15
rprojroot 2.0.2 Rserve 1.8-8 RSQLite 2.2.8
rstudioapi 0,13 rversions 2.1.1 RVEST 1.0.2
Sass 0.4.0 Waage 1.1.1 Selektor 0.4-2
Sitzungsinformationen 1.1.1 Gestalt 1.4.6 glänzend 1.7.1
sourcetools 0.1.7 Sparklyr 1.7.2 SparkR 3.2.0
räumlich 7.3-11 Splines 4.1.1 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.1.1 Statistiken4 4.1.1
Stringi 1.7.5 stringr 1.4.0 Überleben 3.2-13
sys 3.4 TCLTK 4.1.1 Lehrdemos 2.10
testthat 3.1.0 Tibble 3.1.5 tidyr 1.1.4
tidyselect 1.1.1 tidyverse 1.3.1 timeDatum 3043.102
tinytex 0.34 Werkzeuge 4.1.1 Zeitzonendatenbank (tzdb) 0.1.2
Nutze dies 2.1.2 utf8 1.2.2 Dienstprogramme und Funktionen 4.1.1
Universelle eindeutige Kennung (UUID) 0.1-4 VCTRS 0.3.8 viridisLite 0.4.0
Vroom 1.5.5 Waldo 0.3.1 Backenbart 0,4
Withr 2.4.2 xfun 0,27 xml2 1.3.2
xopen 1.0.0 xtable 1.8-4 YAML-Dateiformat 2.2.1
schwirren 2.2.0

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-Autoskalierung 1.11.655
com.amazonaws aws-java-sdk-cloudformation 1.11.655
com.amazonaws aws-java-sdk-cloudfront 1.11.655
com.amazonaws aws-java-sdk-cloudhsm 1.11.655
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.11.655
com.amazonaws aws-java-sdk-cloudtrail 1.11.655
com.amazonaws aws-java-sdk-cloudwatch 1.11.655
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.655
com.amazonaws aws-java-sdk-codedeploy 1.11.655
com.amazonaws aws-java-sdk-cognitoidentity 1.11.655
com.amazonaws aws-java-sdk-cognitosync 1.11.655
com.amazonaws AWS-Java-SDK-Config 1.11.655
com.amazonaws aws-java-sdk-core 1.11.655
com.amazonaws aws-java-sdk-datapipeline 1.11.655
com.amazonaws aws-java-sdk-directconnect 1.11.655
com.amazonaws aws-java-sdk-directory 1.11.655
com.amazonaws aws-java-sdk-dynamodb 1.11.655
com.amazonaws aws-java-sdk-ec2 1.11.655
com.amazonaws aws-java-sdk-ecs 1.11.655
com.amazonaws aws-java-sdk-efs 1.11.655
com.amazonaws aws-java-sdk-elasticache 1.11.655
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.11.655
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.11.655
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.11.655
com.amazonaws aws-java-sdk-emr 1.11.655
com.amazonaws aws-java-sdk-glacier 1.11.655
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.11.655
com.amazonaws aws-java-sdk-iam 1.11.655
com.amazonaws aws-java-sdk-importexport 1.11.655
com.amazonaws aws-java-sdk-kinesis 1.11.655
com.amazonaws aws-java-sdk-kms 1.11.655
com.amazonaws aws-java-sdk-lambda 1.11.655
com.amazonaws aws-java-sdk-Protokolle 1.11.655
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.11.655
com.amazonaws aws-java-sdk-opsworks 1.11.655
com.amazonaws aws-java-sdk-rds 1.11.655
com.amazonaws aws-java-sdk-redshift 1.11.655
com.amazonaws aws-java-sdk-route53 1.11.655
com.amazonaws aws-java-sdk-s3 1.11.655
com.amazonaws aws-java-sdk-ses 1.11.655
com.amazonaws aws-java-sdk-simpledb 1.11.655
com.amazonaws aws-java-sdk-simpleworkflow 1.11.655
com.amazonaws aws-java-sdk-sns 1.11.655
com.amazonaws aws-java-sdk-sqs 1.11.655
com.amazonaws aws-java-sdk-ssm 1.11.655
com.amazonaws aws-java-sdk-storagegateway 1.11.655
com.amazonaws aws-java-sdk-sts 1.11.655
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.11.655
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.655
com.amazonaws jmespath-java 1.11.655
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.12.2
com.fasterxml.jackson.core jackson-core 2.12.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.12.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.12.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.12.2
com.fasterxml.jackson.module jackson-module-paranamer 2.12.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.12.2
com.github.ben-manes.coffein Koffein 2.3.4
com.github.fommil Jniloader 1.1
com.github.fommil.netlib Kern 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.0-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.0
com.google.flatbuffers flatbuffers-java 1.9.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 1.4.195
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.0.3
com.sun.istack istack-commons-runtime 3.0.8
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.8.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 1.3.2
dev.ludovic.netlib Blas 1.3.2
dev.ludovic.netlib lapack 1.3.2
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,19
io.delta delta-sharing-spark_2.12 0.2.0
io.dropwizard.metrics Metrics-Kernbibliothek 4.1.1
io.dropwizard.metrics Metrics-Graphit 4.1.1
io.dropwizard.metrics Metrik-Gesundheitschecks 4.1.1
io.dropwizard.metrics Metrics-Jetty9 4.1.1
io.dropwizard.metrics Metrics-JMX 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics Metrik-Servlets 4.1.1
io.netty netty-all 4.1.63.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.5
log4j apache-log4j-Erweiterungen 1.2.17
log4j log4j 1.2.17
Maven-Bäume hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine Pyrolit 4,30
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.Schneeflocke Snowflake-JDBC 3.13.3
net.Schneeflocke spark-snowflake_2.12 2.9.0-spark_3.1
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant Ant-Launcher 1.9.2
org.apache.arrow Pfeilformat 2.0.0
org.apache.arrow Pfeilspeicherkern 2.0.0
org.apache.arrow Arrow-Memory-Netty 2.0.0
org.apache.arrow Pfeil-Vektor 2.0.0
org.apache.avro avro 1.10.2
org.apache.avro avro-ipc 1.10.2
org.apache.avro avro-mapred 1.10.2
org.apache.commons commons-compress 1.20
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.4.1
org.apache.commons Commons-Text 1.6
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-API 3.3.1-databricks
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.1
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-speicher-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-Anpassungen-Common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.htrace htrace-core4 4.1.0-Inkubieren
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.12
org.apache.ivy Efeu 2.5.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.6.10
org.apache.orc orc-mapreduce 1.6.10
org.apache.orc Orc-Shims 1.6.10
org.apache.parkett Parkettsäule 1.12.0-databricks-0003
org.apache.parkett Parquet-Gemeinsam 1.12.0-databricks-0003
org.apache.parkett Parquet-Kodierung 1.12.0-databricks-0003
org.apache.parkett Parquet-Format-Strukturen 1.12.0-databricks-0003
org.apache.parkett Parkett-Hadoop 1.12.0-databricks-0003
org.apache.parkett Parkett-Jackson 1.12.0-databricks-0003
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus Benutzergruppenanmerkungen 0.5.0
org.apache.zookeeper Tierpfleger 3.6.2
org.apache.zookeeper Zookeeper-Jute 3.6.2
org.checkerframework Prüferqualifikation 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.40.v20210413
org.eclipse.jetty Jetty-Fortsetzung 9.4.40.v20210413
org.eclipse.jetty Jetty-HTTP 9.4.40.v20210413
org.eclipse.jetty Jetty-io 9.4.40.v20210413
org.eclipse.jetty Jetty-jndi 9.4.40.v20210413
org.eclipse.jetty Jetty-Plus 9.4.40.v20210413
org.eclipse.jetty Jetty-Proxy 9.4.40.v20210413
org.eclipse.jetty Jetty-Sicherheit 9.4.40.v20210413
org.eclipse.jetty Jetty Server 9.4.40.v20210413
org.eclipse.jetty Jetty-Servlet 9.4.40.v20210413
org.eclipse.jetty Jetty-Servlets 9.4.40.v20210413
org.eclipse.jetty Jetty-Util 9.4.40.v20210413
org.eclipse.jetty Jetty-util-ajax 9.4.40.v20210413
org.eclipse.jetty Jetty-Webanwendung 9.4.40.v20210413
org.eclipse.jetty Jetty-xml 9.4.40.v20210413
org.eclipse.jetty.websocket WebSocket-API 9.4.40.v20210413
org.eclipse.jetty.websocket WebSocket-Client 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-common 9.4.40.v20210413
org.eclipse.jetty.websocket WebSocket-Server 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-servlet 9.4.40.v20210413
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers jersey-container-servlet 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2,34
org.glassfish.jersey.core Jersey-Client 2,34
org.glassfish.jersey.core jersey-common 2,34
org.glassfish.jersey.core Jersey-Server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator Ruhezustands-Validator 6.1.0.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.7.1
org.mariadb.jdbc mariadb-java-client 2.2.5
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.2.19
org.roaringbitmap RoaringBitmap 0.9.14
org.roaringbitmap Klemmstücke 0.9.14
org.rocksdb rocksdbjni 6.20.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,0
org.scalanlp breeze_2.12 1,0
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.30
org.slf4j jul-to-slf4j 1.7.30
org.slf4j slf4j-api 1.7.30
org.slf4j slf4j-log4j12 1.7.30
org.spark-project.spark ungenutzt 1.0.0
org.springframework Federkern 4.1.4.RELEASE
org.springframework Frühlingstest 4.1.4.RELEASE
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.0-M2
org.typelevel Katzen-kernel_2.12 2.0.0-M4
org.typelevel Maschinist_2.12 0.6.8
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0-M1
org.typelevel spire-platform_2.12 0.17.0-M1
org.typelevel spire-util_2.12 0.17.0-M1
org.typelevel spire_2.12 0.17.0-M1
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1