Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Diese Databricks-Runtime-Version hat das Ende der Lebensdauer erreicht und ist nicht mehr verfügbar. Informationen zu End-of-Life-Daten finden Sie unter Ende des Supports und End-of-Life-Historie. Informationen über die Richtlinie und den Zeitplan für den Support von Databricks Runtime finden Sie unter Databricks Support-Laufzeiten.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 10.0 und Databricks Runtime 10.0 Photon, unterstützt von Apache Spark 3.2.0. Diese Version wurde von Databricks im Oktober 2021 veröffentlicht. Photon ist als Public Preview verfügbar.
Neue Features und Verbesserungen
- Neue Version von Apache Spark
- SELECT-Anweisung unterstützt jetzt die QUALIFY-Klausel zum Filtern von Fensterfunktionsergebnissen
- Clusterunterstützung für JDK 11 (Public Preview)
- Auto Loader behandelt Schemas jetzt als nullable
Neue Version von Apache Spark
Databricks Runtime 10.0 und Databricks Runtime 10.0 Photon enthalten Apache Spark 3.2.0. Weitere Informationen finden Sie unter Apache Spark.
SELECT-Anweisung unterstützt jetzt die QUALIFY-Klausel zum Filtern von Ergebnissen der Fensterfunktionen.
Die SELECT-Anweisung unterstützt jetzt die QUALIFY-Klausel.
QUALIFY kann verwendet werden, um die Ergebnisse von Fensterfunktionen zu filtern. Mindestens eine Fensterfunktion muss entweder in der SELECT-Liste oder in der QUALIFY-Bedingung vorhanden sein. Beispiele:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Clusterunterstützung für JDK 11 (Public Preview)
Databricks bietet jetzt Clusterunterstützung für Java Development Kit (JDK) 11.
Wenn Sie einen Cluster erstellen, können Sie angeben, dass der Cluster JDK 11 verwendet (sowohl für den Treiber als auch für den Executor). Fügen Sie hierzu die folgende Umgebungsvariable zu Erweiterte Optionen > Spark > Umgebungsvariablen hinzu:
JNAME=zulu11-ca-amd64
Autoloader behandelt Schemas jetzt als nullable
Autoloader behandelt jetzt alle abgeleiteten und vom Benutzer bereitgestellten Schemas standardmäßig als nullable. Dadurch soll eine potenzielle Datenbeschädigung in Fällen vermieden werden, in denen die Daten NULL-Felder für Spalten enthalten, die keine Nullwerte zulassen. Eine neue Konfiguration wird eingeführt, um dieses Verhalten nachzuverfolgen: spark.databricks.cloudFiles.schema.forceNullable. Standardmäßig enthält diese Konfiguration die Einstellung von spark.sql.streaming.fileSource.schema.forceNullable, die von „FileStreamSource“ in Apache Spark verwendet wird und standardmäßig auf true festgelegt ist.
Kompatibilitätsbrechende Änderungen
Wesentliche Änderungen für alle Spark SQL-Benutzer
- Neue
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, wird eine Teilmenge korrelierter Gleichheitsprädikate ermöglicht, wenn eine Unterabfrage aggregiert wird. Die Standardeinstellung isttrue. - Neue
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, werden beim Erstellen von Ansichten automatisch generierte Aliase blockiert. Die Standardeinstellung isttrue. - Neue
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled-Konfiguration: Wenn die Einstellung auftruegesetzt ist, wirdCREATE TABLE AS SELECTmit einem nicht leeren Ort nicht zugelassen. Die Standardeinstellung isttrue. Beachten Sie, dass diese Konfiguration keine Auswirkung hat, wennspark.sql.legacy.allowNonEmptyLocationInCTASebenfalls auftruefestgelegt ist, und dassCREATE TABLE AS SELECTmit einem nicht leeren Speicherort immer zulässig ist.
Änderungen mit Auswirkungen für Spark SQL-Benutzer, die den ANSI-Modus aktiviert haben
Informationen zum ANSI-Modus finden Sie unter ANSI-Compliance in Databricks Runtime.
Neue
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, löst ein ungültigesdayOfWeek-Argument für dienext_day-Funktion im ANSI-Modus eineIllegalArgumentExceptionaus. Andernfalls wirdnullzurückgegeben. Die Standardeinstellung isttrue.Neue
spark.databricks.behaviorChange.SC83796CanCast.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, werden neue Regeln für die explizite Cast-Syntax im ANSI-Modus eingeführt. Die Standardeinstellung isttrue.Neue
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, wird beim Umwandeln einer Zeichenfolge in einen booleschen Wert eine Analysefehlerausnahme ausgelöst. Andernfalls wirdnullzurückgegeben. Die Standardeinstellung isttrue.Neue
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled-Konfiguration: Wenn diese Einstellung auftruefestgelegt ist, löst dieabs-Funktion eine Ausnahme aus, wenn die Eingabe außerhalb des Bereichs liegt. Die Standardeinstellung isttrue.
Umwälzende Änderungen für alle Benutzer von Python
- Die Python-API
delta.tables.DeltaTable.convertToDeltagibt nun das richtigeDeltaTable-Python-Objekt zurück, das zum Ausführen von Delta Lake-Befehlen verwendet werden kann. Zuvor wurde ein internes Objekt zurückgegeben, das nicht direkt aufgerufen werden konnte.
Bibliotheksaktualisierungen
Apache Hadoop 3-Upgrade
- Databricks Runtime 10.0 führt ein Upgrade der Hadoop-Abhängigkeit von Hadoop 2.7.4 auf Hadoop 3.3.1 durch.
Verhaltensänderungen
- Hadoop 3 verwendet die Bibliotheken hadoop-client-api und hadoop-client-runtime anstelle der hadoop-common-Bibliothek, die bestimmte Abhängigkeiten von Drittanbietern abschirmt, die möglicherweise in öffentlichen Hadoop-APIs oder -Erweiterungen verwendet werden können.
- Die Konfigurationsoptionen für Hadoop 3 haben sich seit Hadoop 2 geändert. Informationen zu Hadoop 3.3.1-Optionen finden Sie unter core-default.xml.
- Databricks hat einige der Standardkonfigurationen für Hadoop 3 aktualisiert, damit sie mit Hadoop 2 konsistent sind, um sicherzustellen, dass Speicherconnectors über die gleichen Standardauthentifizierungseinstellungen und Leistungsstufen verfügen:
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- Der GCS-Connector (Google Cloud Storage) hat ein Upgrade von 2.1.6 auf 2.2.2 erhalten.
- Der Amazon Redshift-Connector verwendet jetzt das
s3a://-Schema. Dass3n://-Schema ist veraltet. - Behandelt die OSS-Klassennamen für die Amazon S3 MetadataStore-API zusätzlich zu abgeschirmten Klassen. Dies ermöglicht die Verarbeitung von OSS-Konfigurationen, ohne dass die abgeschirmten Klassennamen erforderlich sind.
- Beispielsweise können Sie die
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore-Klasse in der Hadoop-Konfiguration angeben.
- Beispielsweise können Sie die
- Dadurch werden die
new Configuration()undsparkContext.hadoopConfigurationkonsistent.- Wenn jetzt eine neue Hadoop-Konfiguration erstellt wird, stimmt sie mit der vordefinierten Hadoop-Konfiguration in
sparkContext.hadoopConfigurationin der Databricks Runtime überein, einschließlich der Dateisystemschemas und ihrer Standardkonfiguration.
- Wenn jetzt eine neue Hadoop-Konfiguration erstellt wird, stimmt sie mit der vordefinierten Hadoop-Konfiguration in
- Obwohl die in Databricks Runtime enthaltenen Hadoop-Speicherconnectors vollständig mit Hadoop 3.3.1 kompatibel sind, ist nicht garantiert, dass sie mit OSS Hadoop 3.3.1-Connectors synchronisiert sind und möglicherweise ein anderes Verhalten aufweisen.
- Der Amazon S3-Connector lässt weiterhin (wenn auch mit einer Warnung) die Authentifizierung „user:secret“ in S3-URLs zu, im Vergleich zu HADOOP-14833, wodurch diese entfernt wird.
- globStatus gibt jetzt immer sortierte Ergebnisse zurück (HADOOP-10798)
- „fs.s3a.endpoint“ wurde hinzugefügt, wenn dies nicht festgelegt ist und die fs.s3a.endpoint-Region Null ist (SPARK-35878)
- Die von Databricks bereitgestellte automatische Auflösung der Amazon S3-Region wird in einigen Fällen möglicherweise nicht ausgelöst, da der globale Endpunkt festgelegt ist. Dies ist kein Problem, da das AWS SDK die Region korrekt löst.
- Fügen Sie „fs.s3a.downgrade.syncable.exceptions“ hinzu, wenn dies nicht festgelegt ist (SPARK-35868)
- LZ4- und Snappy-Codecs basieren nicht auf der nativen Hadoop-Bibliothek (HADOOP-17125)
Bekannte Probleme
- SPARK-36681 Bei Verwendung von SnappyCodec zum Schreiben der Sequenzdatei tritt aufgrund eines bekannten Problems in Hadoop 3.3.1 (HADOOP-17891) ein Fehler mit UnsatisfiedLinkError auf.
Apache Spark
Databricks Runtime 10.0 enthält Apache Spark 3.2.0.
Inhalt dieses Abschnitts:
- Höhepunkte
- Core und Spark SQL
- Strukturiertes Streaming
- PySpark
- MLlib
- Veraltete und entfernte Funktionen
Höhepunkte
- Unterstützung der Pandas-API-Ebene in PySpark (SPARK-34849)
- EventTime-basierte Sitzungserstellung (Sitzungsfenster) (SPARK-10816)
- Unterstützung von ANSI SQL INTERVAL-Typen (SPARK-27790)
- ANSI-Modus GA (SPARK-35030)
- Standardisieren von Ausnahmemeldungen in Spark (SPARK-33539)
Core und Spark SQL
Verbesserungen bei der ANSI SQL-Kompatibilität
- Unterstützung von ANSI SQL INTERVAL-Typen (SPARK-27790)
- Neue Syntaxregeln für die Typkoersion im ANSI-Modus (SPARK-34246)
Leistungsverbesserungen
- Abfrageoptimierung
- Redundante Aggregate im Optimierer entfernen (SPARK-33122)
- Grenzwertreduzierung durch Project mit Join (SPARK-34622)
- Kardinalitätsschätzung des Union-, Sort- und Range-Operators (SPARK-33411)
- UnwrapCastInBinaryComparison-Unterstützung für In/InSet-Prädikat (SPARK-35316)
- Erforderliche Statistiken nach der Partitionsbereinigung beibehalten (SPARK-34119)
- Abfrageausführung
- Zstandard-Pufferpool standardmäßig aktivieren (SPARK-34340, SPARK-34390)
- Code-Generierung für alle Join-Typen des Sort-Merge-Join hinzufügen (SPARK-34705)
- Verbesserung des geschachtelter Loop-Joins übertragen (SPARK-34706)
- Unterstützung von zwei Ebenen der Hashzuordnung für die endgültige Hashaggregation (SPARK-35141)
- Zulassen von gleichzeitigen Schreibprozessen für das Verarbeiten von dynamischen Partitionen und Buckettabellen (SPARK-26164)
- Leistung der Verarbeitung von FETCH_PRIOR in Thriftserver verbessern (SPARK-33655)
Verbindererweiterungen
- Parkett
- Upgrade von Parquet auf 1.12.1 (SPARK-36726)
- Parquet-Datentypen ohne Vorzeichen lesen, die als physischer INT32-Typ in Parquet gespeichert sind (SPARK-34817)
- Logischen int64-Parquet-Typ ohne Vorzeichen lesen, der als physischer int64-Typ mit Vorzeichen dezimal (20, 0) gespeichert ist (SPARK-34786)
- Verbesserung des Filter-Pushdowns bei Parquet (SPARK-32792)
- ORK
- Upgrade von ORC auf Version 1.6.11 (SPARK-36482)
- Unterstützung der erzwungenen Positionsentwicklung von ORC (SPARK-32864)
- Unterstützung geschachtelter Spalten im vektorisierten ORC-Leser (SPARK-34862)
- Unterstützung der ZSTD- und LZ4-Komprimierung in der ORC-Datenquelle (SPARK-33978, SPARK-35612)
- Avro
- Upgrade von Avro auf Version 1.10.2 (SPARK-34778)
- Unterstützung der Avro-Schemaentwicklung für partitionierte Hive-Tabellen mit „avro.schema.literal“ (SPARK-26836)
- Neue Avro-Datenquellenoptionen zum Hinzufügen zur Steuerung des datetime-Rebasevorgangs beim Lesen (SPARK-34404)
- Unterstützung für die vom Benutzer bereitgestellte Schema-URL in Avro hinzufügen (SPARK-34416)
- Fügen Sie die Unterstützung zur positionsbasierten Schemazuordnung von Catalyst zu Avro hinzu (SPARK-34365)
- JSON
- Upgrade von Jackson auf Version 2.12.3 (SPARK-35550)
- JSON-Datenquellen das Schreiben von Nicht-ASCII-Zeichen als Codepunkte gestatten (SPARK-35047)
- JDBC
- Berechnung eines präziseren Partitionsschritts in JDBCRelation (SPARK-34843)
- Hive-Metastore unterstützt Filteroperationen mit „nicht-in“ (SPARK-34538)
Funktionserweiterungen
- Unterabfrage
- Korrelierte Unterabfragen verbessern (SPARK-35553)
- Neue integrierte Funktionen
- ilike (SPARK-36674, SPARK-36736)
- current_user (SPARK-21957)
- product (SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add(SPARK-35162)
- try_divide (SPARK-35162)
- bit_get (SPARK-33245)
- Standardmäßig Apache Hadoop 3.3.1 verwenden (SPARK-29250)
- Prüfsumme für Shuffleblöcke hinzufügen (SPARK-35275)
- Standardmäßiges spark.storage.replication.proactive aktivieren (SPARK-33870)
- Unterstützung von Fallbackspeicherbereinigung beim Beenden von SparkContext (SPARK-34142)
- Unterstützung von Java-Enumerationen aus der Scala-Dataset-API (SPARK-23862)
- ADD JAR mit Ivy-Koordinaten sollte mit dem transitiven Verhalten von Hive kompatibel sein (SPARK-34506)
- UnterstützungsADD ARCHIVE- und LIST ARCHIVES-Befehl (SPARK-34603)
- Unterstützung mehrerer Pfade für ADD FILE/JAR/ARCHIVE-Befehle(SPARK-35105)
- Unterstützen von Archivdateien als Ressourcen für CREATE FUNCTION die USING-Syntax(SPARK-35236)
- SparkSessionExtensions aus ServiceLoader laden (SPARK-35380)
- Funktion „sentences“ zu functions.{scala,py} hinzufügen (SPARK-35418)
- „spark.sql.hive.metastorePartitionPruning“ für Nicht-Hive-Tabellen anwenden, die Hive-Metastore für die Partitionsverwaltung verwenden (SPARK-36128)
- Ursache für exec-Verlust an Webbenutzeroberfläche weitergeben (SPARK-34764)
- Vermeiden Sie das Inlining von nicht-deterministischen With-CTEs (SPARK-36447)
- Unterstützung beim Analysieren aller Tabellen in einer bestimmten Datenbank (SPARK-33687)
- Standardisieren von Ausnahmemeldungen in Spark (SPARK-33539)
- Unterstützung von (IGNORE | RESPECT) NULLS für LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE (SPARK-30789)
Weitere wichtige Änderungen
- Überwachen
- Neue Metriken für ExternalShuffleService (SPARK-35258)
- Neue REST-APIs und Parameter auf Stufenebene hinzufügen (SPARK-26399)
- Unterstützung von Task- und Executor-Metrikverteilungen in der REST-API (SPARK-34488)
- Fallbackmetriken für das Hashaggregat hinzufügen (SPARK-35529)
- „count_distinct“ als Option zu Dataset#summary hinzufügen (SPARK-34165)
- „ScriptTransform“ in SQL/Core implementieren (SPARK-31936)
- Heartbeattimeout des BlockManagerMaster-Treibers konfigurierbar machen (SPARK-34278)
- Den Namen des Shuffledienstes auf der Clientseite konfigurierbar machen und ein klassenpfadbasiertes Überschreiben der Konfiguration auf der Serverseite zulassen (SPARK-34828)
- ExecutorMetricsPoller sollte den Stage-Eintrag in stageTCMP beibehalten, bis ein Heartbeat auftritt (SPARK-34779)
- In RewriteDistinctAggregates „if“ durch Filterklausel ersetzen (SPARK-34882)
- Fehler beim Anwenden von CostBasedJoinReorder auf Self-Join beheben (SPARK-34354)
- CREATE TABLE LIKE sollte die reservierten Tabelleneigenschaften berücksichtigen(SPARK-34935)
- „ivySettings“-Datei an den Treiber im YARN-Clustermodus senden (SPARK-34472)
- Auflösen doppelter gemeinsamer Spalten aus USING/NATURAL JOIN(SPARK-34527)
- Interne Ansichtseigenschaften für Tabellenbeschreibungsbefehl ausblenden (SPARK-35318)
- Unterstützung beim Auflösen fehlender Attribute für „distribute“/„cluster by“/„repartition hint“ (SPARK-35331)
- Fehler bei der Überprüfung des Pfads in FileStreamSink.hasMetadata ignorieren (SPARK-34526)
- Unterstützung für den s3a Magic Committer durch Rückschlüsse auf fehlende Konfigurationen verbessern (SPARK-35383)
- Erlauben, ":" in der STRUCT-Typzeichenfolge zu weglassen (SPARK-35706)
- Neuen Operator hinzufügen, um zu unterscheiden, ob sichere Optimierung durch AQE möglich ist (SPARK-35786)
- Neue geschachtelte Strukturfelder hinzufügen, anstatt sie nach Namen zu sortieren und mit Nullwerten aufzufüllen (SPARK-35290)
- ArraysZip sollte Feldnamen beibehalten, um zu vermeiden, dass sie vom Analysetool bzw. Optimierer erneut geschrieben werden (SPARK-35876)
- „Void“ als Typname von NullType verwenden (SPARK-36224)
- Einführung einer neuen API für FileCommitProtocol ermöglicht flexible Dateibenennung (SPARK-33298)
Verhaltensänderungen
Sehen Sie sich die Migrationsleitfäden für jede Komponente an: Spark Core.
Strukturiertes Streaming
Hauptfeatures
- EventTime-basierte Sitzungserstellung (Sitzungsfenster) (SPARK-10816)
- Upgrade des Kafka-Clients auf 2.8.0 (SPARK-33913)
- Trigger.AvailableNow zum Ausführen von Streamingabfragen wie Trigger.Once in mehreren Batches in Scala (SPARK-36533)
Weitere wichtige Änderungen
- Einführung einer neuen Option in der Kafka-Quelle, um eine Mindestanzahl von Datensätzen anzugeben, die pro Trigger gelesen werden sollen (SPARK-35312)
- Letzte Offsets zum Quellfortschritt hinzufügen (SPARK-33955)
PySpark
Projekt Zen
- Pandas-API in Spark (SPARK-34849)
- Mypy für pandas-on-Spark aktivieren (SPARK-34941)
- CategoricalDtype-Unterstützung implementieren (SPARK-35997, SPARK-36185)
- Grundlegende Vorgänge für Serie und Index abschließen (SPARK-36103, SPARK-36104, SPARK-36192)
- Verhaltensweisen an 1.3 Pandas anpassen (SPARK-36367)
- Verhalten von Series mit NaN auf Pandas abgleichen (SPARK-36031, SPARK-36310)
- Implementieren eines unären Operators "invertieren" für integrale Serien und Indexe (SPARK-36003)
- CategoricalIndex.map und DatetimeIndex.map implementieren (SPARK-36470)
- Index.map implementieren (SPARK-36469)
- „Fault-Handler“-Unterstützung für Python-Worker ist abgestürzt (SPARK-36062)
- Snake-Benennungsregel für die Funktions-APIs verwenden (SPARK-34306)
- „spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled“ standardmäßig aktivieren (SPARK-35419)
- Unterstützung für das Ableiten eines geschachtelten Dictionaries als Struktur beim Erstellen eines DataFrame (SPARK-35929)
Weitere wichtige Änderungen
- Standardmäßig den angehefteten Threadmodus aktivieren (SPARK-35303)
- NullType-Unterstützung für Arrow-Ausführungen hinzufügen (SPARK-33489)
- Unterstützung von „Arrow self_destruct“ zu toPandas hinzufügen (SPARK-32953)
- API für Threadzielwrapper im pyspark Thread-Pinning-Modus hinzufügen (SPARK-35498)
Verhaltensänderungen
Lesen Sie die Migrationsleitfäden.
MLlib
Leistungsverbesserungen
- BucketedRandomProjectionLSH Transformation-Optimierung (SPARK-34220)
- W2V findSynonyms-Optimierung (SPARK-34189)
- Spärliches GEMM durch das Überspringen der Begrenzungsprüfung optimieren (SPARK-35707)
- Leistung von ML ALS recommendForAll durch GEMV verbessern (SPARK-33518)
Verbesserungen beim Modelltraining
- Logistic Aggregator umgestalten – Unterstützung von virtueller Zentrierung (SPARK-34797)
- Binäre logistische Regression mit Zentrierung von Abfangunterstützung (SPARK-34858, SPARK-34448)
- Multinomiale Logistische Regression mit Zentrierung der Schnittstellenunterstützung (SPARK-34860)
BLAS-Verbesserungen
- Vollständiges Ersetzen von com.github.fommil.netlib durch dev.ludovic.netlib:2.0 (SPARK-35295)
- Vektorisierte BLAS-Implementierung hinzufügen (SPARK-33882)
- Fallback-BLAS mit dev.ludovic.netlib beschleunigen (SPARK-35150)
Weitere wichtige Änderungen
- OVR-Transformation kann einen potenziellen Spaltenkonflikt beheben (SPARK-34356)
Veraltungen und Entfernungen
- Abkündigen spark.launcher.childConnectionTimeout(SPARK-33717)
- deaktivieren GROUP BY ... GRUPPIERUNGSSÄTZE (...) und GRUPPIERUNGSSÄTZE GROUP BY fördern (...)(SPARK-34932)
- „ps.broadcast“-API als veraltet kennzeichnen (SPARK-35810)
- Das Argument
num_filesals veraltet kennzeichnen (SPARK-35807) - „DataFrame.to_spark_io“ als veraltet kennzeichnen (SPARK-35811)
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 10.0-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO-Rolling) | Appdirs | 1.4.4 | Backcall | 0.2.0 |
| Boto3 | 1.16.7 | Botocore | 1.19.7 | Zertifizieren | 2020.12.5 |
| Chardet | 4.0.0 | Fahrradfahrer | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | Dekorateur | 5.0.6 | Distlib | 0.3.3 |
| Distro-Informationen | 0.23ubuntu1 | Übersicht der Facetten | 1.0.0 | Dateisperrung | 3.0.12 |
| idna | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.17.2 | jmespath | 0.10.0 |
| joblib | 1.0.1 | Jupyter-Client | 6.1.12 | jupyter-core | 4.7.1 |
| kiwisolver | 1.3.1 | Koalas | 1.8.1 | matplotlib | 3.4.2 |
| numpy | 1.19.2 | Pandas | 1.2.4 | Parso | 0.7.0 |
| Sündenbock | 0.5.1 | pexpect | 4.8.0 | Pickleshare | 0.7.5 |
| Kissen | 8.2.0 | pip | 21.0.1 | Handlung | 5.1.0 |
| Prompt-Toolkit | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | Pyarrow | 4.0.0 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | Pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| Python-dateutil | 2.8.1 | Pytz | 2020.5 | pyzmq | 20.0.0 |
| Anforderungen | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-lernen | 0.24.1 | SciPy | 1.6.2 | Seegeboren | 0.11.1 |
| setuptools | 52.0.0 | sechs | 1.15.0 | ssh-import-id | 5.10 |
| StatistikModelle | 0.12.2 | Hartnäckigkeit | 8.0.1 | Threadpoolctl | 2.1.0 |
| Tornado | 6.1 | Traitlets | 5.0.5 | unbeaufsichtigte Aktualisierungen | 0,1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| Rad | 0.36.2 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus dem Microsoft CRAN-Snapshot vom 21.09.2021 installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | prüfen, dass | 0.2.1 | Backports | 1.2.1 |
| Basis | 4.1.1 | base64enc | 0.1-3 | Bit | 4.0.4 |
| Bit64 | 4.0.5 | Blob | 1.2.2 | Boot | 1.3-28 |
| brauen | 1.0-6 | Brio | 1.1.2 | Besen | 0.7.9 |
| bslib | 0.3.0 | cachem | 1.0.6 | Callr | 3.7.0 |
| Caret | 6.0-88 | CellRanger | 1.1.0 | Chron | 2.3-56 |
| Klasse | 7.3-19 | cli | 3.0.1 | Schermaschine | 0.7.1 |
| Gruppe | 2.1.2 | Codetools | 0.2-18 | Farbraum | 2.0-2 |
| Commonmark | 1.7 | Kompilierer | 4.1.1 | Konfiguration | 0.3.1 |
| cpp11 | 0.3.1 | Buntstift | 1.4.1 | Anmeldeinformationen | 1.3.1 |
| curl | 4.3.2 | data.table | 1.14.0 | Datensätze | 4.1.1 |
| DBI | 1.1.1 | dbplyr | 2.1.1 | Beschreibung | 1.3.0 |
| devtools | 2.4.2 | diffobj | 0.3.4 | verdauen | 0.6.27 |
| dplyr | 1.0.7 | dtplyr | 1.1.0 | Ellipse | 0.3.2 |
| Evaluieren | 0.14 | Fans | 0.5.0 | Farben | 2.1.0 |
| fastmap | 1.1.0 | Sträflinge | 0.5.1 | foreach | 1.5.1 |
| Fremd | 0.8-81 | schmieden | 0.2.0 | fs | 1.5.0 |
| Zukunft | 1.22.1 | future.apply | 1.8.1 | gurgeln | 1.2.0 |
| Generika | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
| Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-2 |
| Globale Werte | 0.14.0 | Klebstoff | 1.4.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.0 | Gower | 0.2.2 | Grafiken | 4.1.1 |
| grGeräte | 4.1.1 | Raster | 4.1.1 | gridExtra | 2.3 |
| gsubfn | 0,7 | g-Tabelle | 0.3.0 | Hafen | 2.4.3 |
| Highr | 0.9 | HMS | 1.1.0 | HTML-Werkzeuge | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.3 | httr | 1.4.2 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Ausweise | 1.0.1 |
| ini | 0.3.1 | IPRED | 0.9-12 | Isobande | 0.2.5 |
| Iteratoren | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
| KernSmooth | 2.23-20 | Knitr | 1,34 | Etikettierung | 0.4.2 |
| später | 1.3.0 | Gitter | 0.20-44 | Lava | 1.6.10 |
| Lebenszyklus | 1.0.0 | „listenv“ | 0.8.0 | Schmiermittel | 1.7.10 |
| magrittr | 2.0.1 | Abschlag | 1.1 | MASSE | 7.3-54 |
| Matrix | 1.3-4 | Zwischenspeichern | 2.0.0 | Methodik | 4.1.1 |
| mgcv | 1.8-37 | Mime-Kunst | 0,11 | ModelMetrics | 1.2.2.2 |
| Modellierer | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-152 |
| NNET | 7.3-16 | numDeriv | 2016.8 bis 1.1 | OpenSSL | 1.4.5 |
| parallel | 4.1.1 | parallel dazu | 1.28.1 | Säule | 1.6.2 |
| pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
| PLOGR | 0.2.0 | plyr | 1.8.6 | loben | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | Prozessx | 3.5.2 |
| prodlim | 2019.11.13 | Fortschritt | 1.2.2 | progressr | 0.8.0 |
| Versprechungen | 1.2.0.1 | Prototyp | 1.0.0 | P.S. | 1.6.0 |
| schnurren | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| randomForest (Zufälliger Wald) | 4.6-14 | Rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
| RColorBrauer | 1.1-2 | Rcpp | 1.0.7 | READR | 2.0.1 |
| readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.3.1 | Rezepte | 0.1.16 | Rückspiel | 1.0.1 |
| Rückspiel2 | 2.1.2 | fernbedienungen | 2.4.0 | reproduzierbares Beispiel | 2.0.1 |
| Umform2 | 1.4.4 | rlang | 0.4.11 | RMarkdown | 2.11 |
| RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0,13 | rversions | 2.1.1 | RVEST | 1.0.1 |
| Sass | 0.4.0 | Waage | 1.1.1 | Selektor | 0.4-2 |
| Sitzungsinformationen | 1.1.1 | Gestalt | 1.4.6 | glänzend | 1.6.0 |
| sourcetools | 0.1.7 | Sparklyr | 1.7.2 | SparkR | 3.2.0 |
| räumlich | 7.3-11 | Splines | 4.1.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.1.1 | Statistiken4 | 4.1.1 |
| Stringi | 1.7.4 | stringr | 1.4.0 | Überleben | 3.2-13 |
| sys | 3.4 | TCLTK | 4.1.1 | Lehrdemos | 2.10 |
| testthat | 3.0.4 | Tibble | 3.1.4 | tidyr | 1.1.3 |
| tidyselect | 1.1.1 | tidyverse | 1.3.1 | timeDatum | 3043.102 |
| tinytex | 0,33 | Werkzeuge | 4.1.1 | Zeitzonendatenbank (tzdb) | 0.1.2 |
| Nutze dies | 2.0.1 | utf8 | 1.2.2 | Dienstprogramme und Funktionen | 4.1.1 |
| Universelle eindeutige Kennung (UUID) | 0.1-4 | VCTRS | 0.3.8 | viridisLite | 0.4.0 |
| Vroom | 1.5.5 | Waldo | 0.3.1 | Backenbart | 0,4 |
| Withr | 2.4.2 | xfun | 0,26 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML-Dateiformat | 2.2.1 |
| schwirren | 2.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-Config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.12.2 |
| com.fasterxml.jackson.core | jackson-core | 2.12.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.coffein | Koffein | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | lapack | 1.3.2 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,19 |
| io.delta | delta-sharing-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.1.1 |
| io.dropwizard.metrics | Metrics-Graphit | 4.1.1 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.1.1 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | Metrik-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.63.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-Erweiterungen | 1.2.17 |
| log4j | log4j | 1.2.17 |
| Maven-Bäume | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Pyrolit | 4,30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.13.3 |
| net.Schneeflocke | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant-Launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 2.0.0 |
| org.apache.arrow | Pfeilspeicherkern | 2.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 2.0.0 |
| org.apache.arrow | Pfeil-Vektor | 2.0.0 |
| org.apache.avro | avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Commons-Text | 1.6 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.1 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-speicher-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-Inkubieren |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | Efeu | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | Orc-Shims | 1.6.10 |
| org.apache.parkett | Parkettsäule | 1.12.0-databricks-0003 |
| org.apache.parkett | Parquet-Gemeinsam | 1.12.0-databricks-0003 |
| org.apache.parkett | Parquet-Kodierung | 1.12.0-databricks-0003 |
| org.apache.parkett | Parquet-Format-Strukturen | 1.12.0-databricks-0003 |
| org.apache.parkett | Parkett-Hadoop | 1.12.0-databricks-0003 |
| org.apache.parkett | Parkett-Jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.5.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.2 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.2 |
| org.checkerframework | Prüferqualifikation | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-io | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Plus | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty Server | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Util | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-xml | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | Jersey-Client | 2,34 |
| org.glassfish.jersey.core | jersey-common | 2,34 |
| org.glassfish.jersey.core | Jersey-Server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Klemmstücke | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.springframework | Federkern | 4.1.4.RELEASE |
| org.springframework | Frühlingstest | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | Katzen-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | Maschinist_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |