Condividi tramite


Databricks Runtime 11.0 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Fine del supporto e cronologia di fine vita. Per tutte le versioni supportate di Databricks Runtime, consultare Versioni e compatibilità delle note di rilascio di Databricks Runtime.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 11.0, basate su Apache Spark 3.3.0. Databricks ha rilasciato questa versione nel giugno 2022.

Miglioramenti e nuove funzionalità

Nuova versione di Apache Spark

Databricks Runtime 11.0 e Databricks Runtime 11.0 Photon includono Apache Spark 3.3.0. Per informazioni dettagliate, vedere Apache Spark.

I notebook Python ora usano il kernel IPython

In Databricks Runtime 11.0 e versioni successive, i notebook Python usano il kernel IPython per eseguire il codice Python. Vedere IPython Kernel.

Supporto per ipywidgets

È ora possibile usare ipywidgets per rendere interattivi i notebook Python di Databricks. Vedere ipywidgets.

Il connettore Synapse ora scrive dati Parquet in modalità non obsoleta.

Il connettore Azure Synapse scrive ora dati Parquet in modalità non legacy. Mantiene il INT96 formato timestamp quando si utilizzano PolyBase e i COPY comandi per i carichi di lavoro sia batch che di streaming.

Lo schema HTTPS ora è obbligatorio quando il client ABFS utilizza un token SAS.

Quando il client ABFS (Blob File System) di Azure usa un token sas (Shared Access Signature), viene applicato lo schema HTTPS.

SQL: DESC è ora un alias per DESCRIBE

È ora possibile usare DESC come alias per DESCRIBE quando si descrivono percorsi esterni o credenziali di archiviazione. Ad esempio:

-- Describe an external location.
DESC EXTERNAL LOCATION location_name;

-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;

SQL: La nuova funzione current_version fornisce dettagli sulla versione

La nuova current_version funzione restituisce la versione corrente di Databricks Runtime, se disponibile, la versione sql di Databricks corrente, se disponibile, e altri dettagli della versione correlati. Usare questa nuova funzione per eseguire query sulle informazioni relative alla versione. Vedi la funzione current_version.

L'eliminazione di un vincolo di tabella Delta mancante genera ora un errore

Se si tenta ora di eliminare un vincolo di tabella Delta in base al nome e tale vincolo non esiste, verrà visualizzato un errore. Per ottenere il comportamento precedente, che non genera un errore se il vincolo non esiste, è ora necessario usare l'istruzione IF EXISTS . Vedi ALTER TABLE.

SQL: la nuova EXCEPT clausola nell'istruzione SELECT esclude le colonne dalla selezione

SELECT Le istruzioni supportano ora la EXCEPT clausola per escludere colonne dalla selezione. Ad esempio, SELECT * EXCEPT (x) FROM table restituisce tutte le colonne di table ad eccezione di x. Sono consentite anche colonne annidate. Ad esempio, SELECT * EXCEPT (x.a) FROM table restituisce tutte le colonne di table, ma omette il campo a dalla struttura x.

Supporto per l'eliminazione di colonne nelle tabelle Delta (anteprima pubblica)

È possibile usare ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name> o ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *) per eliminare una colonna o un elenco di colonne, rispettivamente, da una tabella Delta come operazione di sola metadati. Le colonne vengono effettivamente eliminate in modo leggero, perché sono ancora nei file Parquet sottostanti, ma non sono più visibili alla tabella Delta.

È possibile usare REORG TABLE <table-name> APPLY (PURGE) per attivare una riscrittura di file nei file che contengono dati eliminati soft, ad esempio colonne eliminate.

È possibile usare VACUUM per rimuovere i file eliminati dall'archiviazione fisica, inclusi i file precedenti che contengono colonne eliminate e sono stati riscritti da REORG TABLE.

Miglioramenti COPY INTO

È ora possibile creare tabelle Delta segnaposto vuote in modo che lo schema venga dedotto successivamente durante un COPY INTO comando:

CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');

L'istruzione SQL precedente è idempotente e può essere pianificata per essere eseguita per l'inserimento dei dati esattamente una volta in una tabella Delta.

Nota

La tabella Delta vuota non è utilizzabile all'esterno di COPY INTO. Non è possibile usare INSERT INTO e MERGE INTO per scrivere dati in tabelle Delta senza schema. Dopo l'inserimento dei dati nella tabella con COPY INTO, è possibile eseguire query sulla tabella.

Se i dati inseriti non possono essere letti a causa di un problema di danneggiamento, è possibile ignorare i file danneggiati impostando ignoreCorruptFiles su true in FORMAT_OPTIONS:

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')

Il COPY INTO comando restituisce il numero di file saltati a causa del danneggiamento nella colonna num_skipped_corrupt_files. Questa metrica viene visualizzata anche nella colonna operationMetrics sotto numSkippedCorruptFiles dopo l'esecuzione di DESCRIBE HISTORY nella tabella Delta.

I file danneggiati non vengono rilevati da COPY INTO, quindi possono essere ricaricati in un'esecuzione successiva se il danneggiamento è corretto. È possibile vedere quali file sono danneggiati eseguendo COPY INTO in VALIDATE modalità .

CONVERT TO DELTA è ora supportato negli ambienti abilitati per Unity Catalog (anteprima pubblica)

Nei ambienti abilitati per Unity-Catalog, CONVERT TO DELTA adesso puoi:

  • Convertire i file Parquet in percorsi esterni a Delta Lake.
  • Convertire tabelle esterne Parquet in tabelle Delta.

Modifiche del comportamento

SQL: lpad e rpad le funzioni supportano ora sequenze di byte

Le funzioni lpad e rpad sono state aggiornate per aggiungere il supporto per le sequenze di byte oltre alle stringhe.

Il formato della stringa in format_string e printf non consente più %0$

Se il formato %0$ viene specificato nelle funzioni format_string e printf, viene generato un errore per impostazione predefinita. Questa modifica consiste nel mantenere il comportamento previsto con le versioni precedenti di Databricks Runtime e i database di terze parti comuni. Il primo argomento deve sempre fare riferimento %1$ quando si utilizza un indice di argomento per indicare la posizione dell'argomento nell'elenco di argomenti.

I valori Null nei file CSV vengono ora scritti come stringhe vuote senza virgolette per impostazione predefinita

I valori Null nei file CSV sono stati scritti in precedenza come stringhe vuote tra virgolette. Con questa versione, i valori Null nei file CSV vengono ora scritti come stringhe vuote senza virgolette per impostazione predefinita. Per tornare al comportamento precedente, impostare l'opzione nullValue su "" per le operazioni di scrittura.

La proprietà tabella external è ora riservata

La proprietà external è ora una proprietà di tabella riservata per impostazione predefinita. Le eccezioni vengono ora generate quando si usa la proprietà external con le clausole CREATE TABLE ... TBLPROPERTIES e ALTER TABLE ... SET TBLPROPERTIES.

Log4j viene aggiornato da Log4j 1 a Log4j 2

Log4j 1 viene aggiornato a Log4j 2. Le dipendenze di Log4j 1 legacy vengono rimosse.

Se si dipende dalle classi Log4j 1 precedentemente incluse in Databricks Runtime, tali classi non esistono più. Dovresti aggiornare le tue dipendenze a Log4j 2.

Se sono presenti plug-in personalizzati o file di configurazione che dipendono da Log4j 2, potrebbero non funzionare più con la versione di Log4j 2 in questa versione. Per assistenza, contattare il team dell'account di Azure Databricks.

Le librerie installate da Maven vengono ora risolte nel piano di calcolo per impostazione predefinita

Le librerie Maven ora vengono risolte nel piano di calcolo per impostazione predefinita quando si installano librerie in un cluster. È necessario che il cluster abbia accesso a Maven Central. In alternativa, è possibile ripristinare il comportamento precedente impostando la proprietà di configurazione spark:

spark.databricks.libraries.enableMavenResolution false

Correzioni di bug

  • La compatibilità binaria per LeafNode, UnaryNodee BinaryNode tra Apache Spark e Databricks Runtime è stata corretta e le classi sono ora compatibili con Apache Spark 3.3.0 e versioni successive. Se si verifica il messaggio seguente o simile quando si usa un pacchetto di terze parti con Databricks Runtime, ricompilare il pacchetto con Apache Spark 3.3.0 o versione successiva: Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected.

Aggiornamenti della libreria

  • Librerie Python aggiornate:
    • platformdirs dalla versione 2.5.1 alla versione 2.5.2
    • protobuf da 3.20.0 a 3.20.1
  • Librerie R aggiornate:
    • BLOB da 1.2.2 a 1.2.3
    • scopa da 0.7.12 a 0.8.0
    • caret da 6.0-91 a 6.0-92
    • cli da 3.2.0 a 3.3.0
    • dplyr dalla versione 1.0.8 alla versione 1.0.9
    • futuro da 1.24.0 a 1.25.0
    • future.apply dalla versione 1.8.1 alla versione 1.9.0
    • gert da 1.5.0 a 1.6.0
    • ggplot2 da 3.3.5 a 3.3.6
    • glmnet da 4.1-3 a 4.1-4
    • haven da 2.4.3 a 2.5.0
    • httr da 1.4.2 a 1.4.3
    • knitr da 1.38 a 1.39
    • magrittr da 2.0.2 a 2.0.3
    • parallelamente da 1.30.0 a 1.31.1
    • ps da 1.6.0 a 1.7.0
    • RColorBrewer da 1.1-2 a 1.1-3
    • RcppEigen da 0.3.3.9.1 a 0.3.3.9.2
    • readxl da 1.3.1 a 1.4.0
    • rmarkdown da 2.13 a 2.14
    • rprojroot da 2.0.2 a 2.0.3
    • RSQLite da 2.2.11 a 2.2.13
    • scala da 1.1.1 a 1.2.0
    • testthat da 3.1.2 a 3.1.4
    • tibble da 3.1.6 a 3.1.7
    • tinytex da 0,37 a 0,38
    • tzdb da 0.2.0 a 0.3.0
    • uuid da 1.0-4 a 1.1-0
    • vctrs 0.3.8 a 0.4.1
  • Librerie Java aggiornate:
    • com.fasterxml.jackson.core.jackson-annotations da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-core da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-databind da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.datatype.jackson-datatype-joda da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-paranamer da 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 da 2.13.0 a 2.13.3
    • com.google.crypto.tink.tink da 1.6.0 a 1.6.1
    • com.ning.compress-lzf da 1.0.3 a 1.1
    • dev.ludovic.netlib.arpack da 2.2.0 a 2.2.1
    • dev.ludovic.netlib.blas da 2.2.0 a 2.2.1
    • dev.ludovic.netlib.lapack da 2.2.0 a 2.2.1
    • io.netty.netty-all dalla 4.1.73.Final alla 4.1.74.Final
    • io.netty.netty-buffer da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-codec da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-common da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-handler dalla versione 4.1.73.Final alla versione 4.1.74.Final
    • io.netty.netty-resolver da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-tcnative-classes da 2.0.46.Final a 2.0.48.Final
    • io.netty.netty-transport da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-epoll da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-kqueue da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-aarch_64 da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-x86_64 da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-aarch_64 da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-x86_64 da 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-unix-common da 4.1.73.Final a 4.1.74.Final
    • joda-time.joda-time da 2.10.12 a 2.10.13
    • org.apache.commons.commons-math3 da 3.4.1 a 3.6.1
    • org.apache.httpcomponents.httpcore da 4.4.12 a 4.4.14
    • org.apache.orc.orc-core da 1.7.3 a 1.7.4
    • org.apache.orc.orc-mapreduce da 1.7.3 a 1.7.4
    • org.apache.orc.orc-shims da 1.7.3 a 1.7.4
    • org.eclipse.jetty.jetty-client da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-continuation da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-http da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-io da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-jndi versione da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-plus da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-proxy da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-security da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-server da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlet da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlets da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util-ajax da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-webapp da versione 9.4.43.v20210629 a versione 9.4.46.v20220331
    • org.eclipse.jetty.jetty-xml da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-api da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-client da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-common dalle versioni 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-server da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-servlet da 9.4.43.v20210629 a 9.4.46.v20220331
    • org.mariadb.jdbc.mariadb-java-client da 2.2.5 a 2.7.4
    • org.postgresql.postgresql da 42.2.19 a 42.3.3
    • org.roaringbitmap.RoaringBitmap da 0.9.23 a 0.9.25
    • org.roaringbitmap.shims da 0.9.23 a 0.9.25
    • org.rocksdb.rocksdbjni da 6.20.3 a 6.24.2
    • org.slf4j.jcl-over-slf4j da 1.7.32 a 1.7.36
    • org.slf4j.jul-to-slf4j da 1.7.32 a 1.7.36
    • org.slf4j.slf4j-api da 1.7.30 a 1.7.36

Apache Spark

Databricks Runtime 11.0 include Apache Spark 3.3.0.

Contenuto della sezione:

Spark SQL e Core

Modalità ANSI

  • Nuove regole di sintassi cast esplicite in modalità ANSI (SPARK-33354)
  • Elt() deve restituire null se index è Null in modalità ANSI (SPARK-38304)
  • Facoltativamente, restituisce un risultato Null se l'elemento non esiste in array/map (SPARK-37750)
  • Consenti conversione tra tipo numerico e tipo timestamp (SPARK-37714)
  • Disabilitare le parole chiave riservate ANSI per impostazione predefinita (SPARK-37724)
  • Usare le regole di assegnazione dell'archivio per la risoluzione della chiamata di funzione (SPARK-37438)
  • Aggiungere una configurazione per consentire il cast tra Datetime e Numeric (SPARK-37179)
  • Aggiungere una configurazione per applicare facoltativamente parole chiave riservate ANSI (SPARK-37133)
  • Non consentire operazioni binarie tra intervallo e valore letterale stringa (SPARK-36508)

Miglioramenti delle funzionalità

  • Supportare i tipi ANSI SQL INTERVAL (SPARK-27790)
  • Miglioramenti dei messaggi di errore (SPARK-38781)
  • Supporto dei metadati dei file nascosti per Spark SQL (SPARK-37273)
  • Supporto per stringhe letterali grezze (SPARK-36371)
  • Classe helper per batch Dataset.observe() (SPARK-34806)
  • Si supporta la specificazione del numero di partizione iniziale per il ribilanciamento (SPARK-38410)
  • Supportare la modalità a cascata per dropNamespace l'API (SPARK-37929)
  • Consenti l'assegnazione dello store e il cast implicito tra i tipi di data e ora (SPARK-37707)
  • Collect, first e last devono essere funzioni di aggregazione deterministiche (SPARK-32940)
  • Aggiungere ExpressionBuilder per le funzioni con gli overload complessi (SPARK-37164)
  • Aggiungere il supporto per gli array per l'unione per nome (SPARK-36546)
  • Aggiungere df.withMetadata: una facilitazione sintattica per aggiornare i metadati di un dataframe (SPARK-36642)
  • Supporto di valori letterali stringa non elaborati (SPARK-36371)
  • Usare CAST nell'analisi di date/timestamp con il modello predefinito (SPARK-36418)
  • Classi di valore di supporto in uno schema annidato per Dataset (SPARK-20384)
  • Aggiungere il supporto per la sintassi AS OF (SPARK-37219)
  • Aggiungere REPEATABLE in TABLESAMPLE per specificare il seed (SPARK-37165)
  • Aggiungere la sintassi ANSI set catalog xxx per modificare il catalogo corrente (SPARK-36841)
  • Supporto ILIKE (ALL | ANY | SOME) - LIKE senza distinzione tra maiuscole e minuscole (SPARK-36674, SPARK-36736, SPARK-36778)
  • La fase di query di supporto mostra le statistiche di runtime in modalità di spiegazione formattata (SPARK-38322)
  • Aggiungere le metriche delle dimensioni di spill per il join di ordinamento (SPARK-37726)
  • Aggiornare la sintassi SQL di SHOW FUNCTIONS (SPARK-37777)
  • Supporto della sintassi DROP COLUMN [IF EXISTS] (SPARK-38939)
  • Nuove funzioni predefinite e le relative estensioni (SPARK-38783)
    • Data e ora
    • Funzioni AES (SPARK-12567)
      • Aggiungere funzioni predefinite aes_encrypt e aes_decrypt (SPARK-12567)
      • Supportare la modalità GCM di aes\_encrypt()/aes\_decrypt() (SPARK-37591)
      • Impostare GCM come modalità predefinita in aes\_encrypt()/aes\_decrypt() (SPARK-37666)
      • Aggiungere gli mode e padding argomenti a aes\_encrypt()/aes\_decrypt() (SPARK-37586)
    • Funzione di aggregazione ANSI (SPARK-37671)
      • Supporto della funzione di aggregazione ANSI: regr_count (SPARK-37613)
      • Supporto della funzione di aggregazione ANSI: regr_avgx e regr_avgy (SPARK-37614)
      • Supporto della funzione di aggregazione ANSI: percentile_cont (SPARK-37676, SPARK-38219)
      • Supporto della funzione di aggregazione ANSI: percentile_disc (SPARK-37691)
      • Supporto della funzione di aggregazione ANSI: regr_count (SPARK-37613)
      • Supporto della funzione di aggregazione ANSI: array_agg (SPARK-27974)
      • Supporto della funzione di aggregazione ANSI: regr_r2 (SPARK-37641)
      • Nuova funzione SQL: try_avg (SPARK-38589)
    • Collezioni
    • Formato
    • Stringa/Binario
      • Aggiungere la funzione stringa CONTAINS() (SPARK-37508)
      • Aggiungere le funzioni stringa startswith() e endswith() (SPARK-37520)
      • Aggiungere funzioni lpad e rpad per stringhe binarie (SPARK-37047)
      • Supportare la funzione "split_part" (SPARK-38063)
    • Aggiungere un parametro di scala alle funzioni floor e ceil (SPARK-37475)
    • Nuove funzioni SQL: try_subtract e try_multiply (SPARK-38164)
    • Implementa la funzione di aggregazione histogram_numeric che supporta l'aggregazione parziale (SPARK-16280)
    • Aggiungere max_by/min_by a sql.functions (SPARK-36963)
    • Aggiungere nuove funzioni SQL predefinite: SEC e CSC (SPARK-36683)
    • array_intersect gestisce i duplicati Double.NaN e Float.NaN (SPARK-36754)
    • Aggiungere cot come funzioni Scala e Python (SPARK-36660)

Miglioramenti delle prestazioni

  • Generazione di codice a fasi intere
    • Aggiungere code-gen per l'aggregato di ordinamento senza chiavi di raggruppamento (SPARK-37564)
    • Aggiungere code-gen per l'unione completa di ordinamento esterno (SPARK-35352)
    • Aggiungere la generazione di codice per l'hash join completo mischiato (SPARK-32567)
    • Aggiungere code-gen per l'esistenza di merge di ordinamento (SPARK-37316)
  • Eseguire il push verso il basso (filtri)
    • Applicare i filtri tramite RebalancePartitions (SPARK-37828)
    • Applica il filtro della colonna booleana (SPARK-36644)
    • Imposta il limite a 1 per il lato destro del join semi/anti sinistro se la condizione del join è vuota (SPARK-37917)
    • Tradurre funzioni di aggregazione più standard per il pushdown (SPARK-37527)
    • Supporta la propagazione di una relazione vuota attraverso aggregazione/unione (SPARK-35442)
    • Filtro runtime a livello di riga (SPARK-32268)
    • Supporto del left semi join nei filtri runtime a livello di riga (SPARK-38565)
    • Supporto del pushdown del predicato e dell'eliminazione delle colonne per le CTE deduped (SPARK-37670)
  • Vettorizzazione
    • Implementare un oggetto ConstantColumnVector e migliorare le prestazioni dei metadati dei file nascosti (SPARK-37896)
    • Abilitare la lettura vettorializzata per VectorizedPlainValuesReader.readBooleans (SPARK-35867)
  • Combinare/rimuovere/sostituire nodi
    • Combinare unioni se è presente un progetto tra di essi (SPARK-37915)
    • Combinare in un unico cast se è possibile eseguire un cast verso l'alto in modo sicuro di due cast (SPARK-37922)
    • Rimuovere l'ordinamento se è figlio di RepartitionByExpression (SPARK-36703)
    • Rimuove il outer join se ha solo DISTINCT sul lato di streaming con alias (SPARK-37292)
    • Sostituire l'hash con l'aggregazione di ordinamento se il figlio è già ordinato (SPARK-37455)
    • Comprimere i progetti solo se non si duplicano espressioni costose (SPARK-36718)
    • Rimuovere gli alias ridondanti dopo RewritePredicateSubquery (SPARK-36280)
    • Unire sottoquery scalari non correlate (SPARK-34079)
  • Partizionamento
    • Non aggiungere l'eliminazione dinamica delle partizioni se esiste quella delle partizioni statiche (SPARK-38148)
    • Migliorare RebalancePartitions nelle regole di Optimizer (SPARK-37904)
    • Aggiungere un fattore di partizione di piccole dimensioni per partizioni di ribilanciamento (SPARK-37357)
  • Iscriversi
    • Ottimizzare la logica per abbassare di livello il hash join broadcast in DynamicJoinSelection (SPARK-37753)
    • Ignorare le chiavi di join duplicate nella creazione delle relazioni per il join hash modificate SEMI/ANTI (SPARK-36794)
    • Supportare l'ottimizzazione dei join sbilanciati anche se introduce un shuffle aggiuntivo (SPARK-33832)
  • AQE
    • Sostenere l'eliminazione dei limiti nell'Optimizer AQE (SPARK-36424)
    • Ottimizzazione del piano di singola riga in modalità normale e AQE Optimizer (SPARK-38162)
  • Aggregate.groupOnly supporta espressioni piegabili (SPARK-38489)
  • arrayEquals di ByteArrayMethods dovrebbe saltare rapidamente il controllo di allineamento con la piattaforma non allineata (SPARK-37796)
  • Aggiungere l'eliminazione del modello di albero alla regola CTESubstitution (SPARK-37379)
  • Aggiungi altre semplificazioni degli operatori Not (SPARK-36665)
  • Supporto di BooleanType in UnwrapCastInBinaryComparison (SPARK-36607)
  • Coalesce elimina tutte le espressioni dopo la prima espressione non nullable (SPARK-36359)
  • Aggiungere un visitatore di piano logico per propagare gli attributi distinti (SPARK-36194)

Miglioramenti dei connettori predefiniti

  • Generale
    • Serializzazione leniente di datetime dall'origine dati (SPARK-38437)
    • Considerare la posizione della tabella come assoluta quando la prima lettera del percorso è uno slash nel comando create/alter table (SPARK-38236)
    • Rimuovere gli zeri iniziali dalla partizione del tipo di numero statico vuoto (SPARK-35561)
    • Supporto ignoreCorruptFiles e ignoreMissingFiles nelle opzioni origine dati (SPARK-38767)
    • Comando SHOW CATALOGS Aggiungi (SPARK-35973)
  • Parquet
    • Abilitare la corrispondenza dei nomi delle colonne dello schema in base agli ID del campo (SPARK-38094)
    • Rimuovere il nome del campo di verifica durante la lettura/scrittura di dati in parquet (SPARK-27442)
    • Supporto alla lettura vettorializzata di valori booleani usando la codifica RLE con Parquet DataPage V2 (SPARK-37864)
    • Supporta la codifica delle pagine dati Parquet v2 (DELTA_BINARY_PACKED) per il percorso vettorializzato (SPARK-36879)
    • Rebase i timestamp nel fuso orario della sessione salvati nei metadati Parquet/Avro (SPARK-37705)
    • Ottimizzare il raggruppamento per colonna di partizione per aggregazione (SPARK-36646)
    • Push-down dell'aggregazione (Min/Max/Count) per Parquet (SPARK-36645)
    • Parquet: abilitare le colonne dello schema corrispondenti per ID di campo (SPARK-38094)
    • Ridurre le dimensioni predefinite della pagina LONG_ARRAY_OFFSET se vengono usati G1GC e ON_HEAP (SPARK-37593)
    • Implementare le codifiche vettoriali DELTA_BYTE_ARRAY e DELTA_LENGTH_BYTE_ARRAY per il supporto di Parquet V2 (SPARK-37974)
    • Supportare tipi complessi per il lettore vettorializzatore Parquet (SPARK-34863)
  • ORCO
    • Rimuovere il nome del campo di verifica durante la lettura/scrittura di dati esistenti nel formato Orc (SPARK-37965)
    • Inoltro aggregato verso il basso per ORC (SPARK-34960)
    • Supportare la lettura e la scrittura di intervalli ANSI da/a origini dati ORC (SPARK-36931)
    • Sostenere i nomi delle colonne esclusivamente numerici nelle origini dati ORC (SPARK-36663)
  • JSON
    • Considerare allowNonNumericNumbers nell'analisi di valori NaN e Infinity racchiusi tra virgolette nel lettore JSON (SPARK-38060)
    • Utilizzare CAST per le date e ore nei formati CSV/JSON come impostazione predefinita (SPARK-36536)
    • Allineare il messaggio di errore per i tipi di chiave non supportati in MapType nel lettore Json (SPARK-35320)
  • CSV
    • Correzione del riferimento alla colonna di record danneggiata da CSV (SPARK-38534)
    • I valori null devono essere salvati come nulla anziché le stringhe vuote "" tra virgolette per impostazione predefinita (SPARK-37575)
  • JDBC
    • Aggiungere l'istruzione IMMEDIATE all'implementazione del troncamento del dialetto DB2 (SPARK-30062)
  • Hive
    • Supporto per la scrittura di tabelle suddivise in bucket Hive (formati di file Hive con hash Hive) (SPARK-32712)
    • Usare espressioni per filtrare le partizioni Hive sul lato client (SPARK-35437)
    • Supportare la potatura dinamica delle partizioni per HiveTableScanExec (SPARK-36876)
    • InsertIntoHiveDir deve usare l'origine dati se è convertibile (SPARK-38215)
    • Supporto per la scrittura di tabelle bucketizzate Hive (nei formati Parquet/ORC con hash di Hive) (SPARK-32709)

Disattivazione dei nodi

  • FallbackStorage non deve tentare di risolvere il nome host arbitrario "remoto" (SPARK-38062)
  • ExecutorMonitor.onExecutorRemoved deve gestire ExecutorDecommission come completato (SPARK-38023)

Altre modifiche rilevanti

  • Aggiungere un blocco a grana fine a BlockInfoManager (SPARK-37356)
  • Supporto del mapping dei tipi di risorse Spark gpu/fpga al tipo di risorsa YARN personalizzato (SPARK-37208)
  • Segnala dimensioni accurate del blocco casuale se è sbilanciato (SPARK-36967)
  • Supporto della registrazione Netty a livello di rete (SPARK-36719)

Streaming Strutturato

Funzionalità principali

  • Introdurre Trigger.AvailableNow per eseguire query di streaming come Trigger.Once in più batch (SPARK-36533)

Altre modifiche rilevanti

  • Usare StatefulOpClusteredDistribution per gli operatori con stato rispettando la compatibilità con le versioni precedenti (SPARK-38204)
  • Correggere il timeout di flatMapGroupsWithState in batch con i dati per la chiave (SPARK-38320)
  • Correzione del problema di correttezza nel join esterno tra flussi utilizzando il provider di archiviazione states RocksDB (SPARK-38684)
  • Supporto di Trigger.AvailableNow nell'origine dati Kafka (SPARK-36649)
  • Ottimizzare il percorso di scrittura nel provider dell'archivio stati RocksDB (SPARK-37224)
  • Introdurre una nuova origine dati per fornire un set coerente di righe per microbatch (SPARK-37062)
  • Usare HashClusteredDistribution per operatori con stato rispettando la compatibilità con le versioni precedenti (SPARK-38204)

PySpark

API Pandas su Spark

Miglioramenti principali
  • Ottimizzazione dell'indice 'distributed-sequence' come predefinito (SPARK-36559, SPARK-36338)
    • Supporto per specificare il tipo di indice e il nome nell'API pandas in Spark (SPARK-36709)
    • Visualizzare il tipo di indice predefinito nei piani SQL per l'API Pandas in Spark (SPARK-38654)
Funzionalità principali
  • Implementare il ps.merge_asof nativo di SparkSQL (SPARK-36813)
  • Supporto di TimedeltaIndex nell'API pandas in Spark (SPARK-37525)
  • Supportare timedelta di Python (SPARK-37275, SPARK-37510)
  • Implementare funzioni in CategoricalAccessor/CategoricalIndex (SPARK-36185)
  • Usa il formattatore di stringhe standard di Python per l'API SQL nell'API Pandas in Spark (SPARK-37436)
  • Supportare le operazioni di base della Serie/Indice timedelta (SPARK-37510)
  • Supporto ps.MultiIndex.dtypes (SPARK-36930)
  • Implementare Index.map (SPARK-36469)
  • Implementare serie.xor e serie.rxor (SPARK-36653)
  • Implementare l'operatore invert unario dell'integrale ps.Series/Index (SPARK-36003)
  • Implementare DataFrame.cov (SPARK-36396)
  • Supporto di str e timestamp per (Serie|DataFrame).describe() (SPARK-37657)
  • Supporto del parametro lambda column di DataFrame.rename(SPARK-38763)

Altre modifiche rilevanti

Cambiamenti radicali
  • Eliminare i riferimenti al supporto di Python 3.6 in docs e python/docs (SPARK-36977)
  • Rimuovere l'hack di namedtuple sostituendo il pickle incorporato con cloudpickle (SPARK-32079)
  • Passare dalla versione minima pandas alla versione 1.0.5 (SPARK-37465)
  • Miglioramenti principali
    • Fornire un profiler per le funzioni definite dall'utente (UDF) Python/Pandas (SPARK-37443)
    • Usa il formattatore di stringhe standard di Python per l'API SQL in PySpark (SPARK-37516)
    • Esporre lo stato SQL e la classe di errore nelle eccezioni PySpark (SPARK-36953)
    • Provare a catturare faulthandler quando un processo Python si arresta in modo anomalo (SPARK-36062)
Funzionalità principali
  • Implementare DataFrame.mapInArrow in Python (SPARK-37228)
  • Usa il formattatore di stringhe standard di Python per l'API SQL in PySpark (SPARK-37516)
  • Aggiungere l'API pyspark df.withMetadata (SPARK-36642)
  • Supporto della timedelta di Python (SPARK-37275)
  • Rendere disponibile tableExists in pyspark.sql.catalog (SPARK-36176)
  • Rendere disponibile databaseExists in pyspark.sql.catalog (SPARK-36207)
  • Esposizione di functionExists nel catalogo sql pyspark (SPARK-36258)
  • Aggiungere Dataframe.observation a PySpark (SPARK-36263)
  • Aggiungere API max_by/min_by in PySpark (SPARK-36972)
  • Supporto per dedurre la dict annidata come struct durante la creazione di un dataframe (SPARK-35929)
  • Aggiungere le API bit/octet_length a Scala, Python e R (SPARK-36751)
  • Supporto dell'API ILIKE in Python (SPARK-36882)
  • Aggiungere il metodo isEmpty per l'API DataFrame Python (SPARK-37207)
  • Aggiungere più colonne aggiungendo il supporto (SPARK-35173)
  • Aggiungere SparkContext.addArchive in PySpark (SPARK-38278)
  • Rendere le rappresentazioni dei tipi sql eseguibili (SPARK-18621)
  • Hint di tipo inline per fpm.py in python/pyspark/mllib (SPARK-37396)
  • Implementare dropna il parametro di SeriesGroupBy.value_counts (SPARK-38837)

MLLIB

Funzionalità principali

  • Aggiungere il parametro distanceMeasure al trainKMeansModel (SPARK-37118)
  • Esporre LogisticRegression.setInitialModel, come KMeans e altri fanno (SPARK-36481)
  • Consenti a CrossValidatorModel di ottenere le deviazioni standard delle metriche per ogni paramMap (SPARK-36425)

Miglioramenti principali

  • Ottimizzare alcuni treeAggregate in MLlib ritardando le allocazioni (SPARK-35848)
  • Riscrivere _shared_params_code_gen.py in hint di tipo inline per ml/param/shared.py (SPARK-37419)

Altre modifiche rilevanti

SparkR

  • Eseguire la migrazione della documentazione di SparkR a pkgdown (SPARK-37474)
  • Esporre l'espressione make_date in R (SPARK-37108)
  • Aggiungere api max_by/min_by a SparkR (SPARK-36976)
  • Supporto dell'API ILIKE in R (SPARK-36899)
  • Aggiungere sec e csc come funzioni R (SPARK-36824)
  • Aggiungere le API bit/octet_length a Scala, Python e R (SPARK-36751)
  • Aggiungere cot come funzione R (SPARK-36688)

INTERFACCIA UTENTE

  • Riepilogo delle metriche di speculazione a livello di fase (SPARK-36038)
  • Tempo di lettura unificato del blocco casuale al tempo di attesa per il recupero in StagePage (SPARK-37469)
  • Aggiungere configurazioni modificate per l'esecuzione di SQL nell'interfaccia utente (SPARK-34735)
  • Fai riconoscere a ThriftServer spark.sql.redaction.string.regex (SPARK-36400)
  • Collegare e avviare il gestore dopo l'avvio dell'applicazione nell'interfaccia utente (SPARK-36237)
  • Aggiungi la durata del commit al nodo del diagramma della scheda SQL (SPARK-34399)
  • Supporto del back-end RocksDB nel server di cronologia di Spark (SPARK-37680)
  • Mostra le opzioni per l'API Pandas in Spark nell'interfaccia utente (SPARK-38656)
  • Rinominare 'SQL' in 'SQL/DataFrame' nella pagina dell'interfaccia utente SQL (SPARK-38657)

Costruire

Aggiornamenti di manutenzione

Vedere Databricks Runtime 11.0.

Ambiente di sistema

  • Sistema operativo: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.1.3
  • Delta Lake: 1.2.1

Librerie Python installate

Libreria Versione Libreria Versione Libreria Versione
Antergos Linux 10/2015 (ISO-Rolling) argon2-cffi 20.1.0 generatore asincrono 1.10
att. 21.2.0 chiamata di ritorno 0.2.0 backports.entry-points-selectable 1.1.1
candeggiare 4.0.0 boto3 1.21.18 botocore 1.24.18
certificato 2021.10.8 cffi 1.14.6 chardet 4.0.0
normalizzatore di set di caratteri 2.0.4 ciclista 0.10.0 Cython, un linguaggio di programmazione 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 Decoratore 5.1.0
defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) 0.7.1 distlib 0.3.4 informazioni sulla distribuzione 0.23ubuntu1
punti di ingresso 0,3 "Panoramica delle sfaccettature" 1.0.0 blocco dei file 3.6.0
IDNA 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets (una libreria Python per widget interattivi) 7.7.0 jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
Mistune 0.8.4 nbclient 0.5.3 nbconvert 6.1.0
nbformat 5.1.3 nest-asyncio 1.5.1 taccuino 6.4.5
numpy 1.20.3 imballaggio 21.0 Panda 1.3.4
pandocfilters 1.4.3 parso 0.8.2 vittima 0.5.2
pexpect 4.8.0 pickleshare (libreria di software Python) 0.7.5 Cuscino 8.4.0
seme 21.2.4 platformdirs 2.5.2 plotly (software di visualizzazione dati) 5.6.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 3.20.1
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser (un parser scritto in Python) 2.20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil (libreria Python per la gestione delle date) 2.8.2
pytz 2021.3 pyzmq 22.2.1 richieste 2.26.0
requests-unixsocket 0.2.0 s3transfer 0.5.2 scikit-learn 0.24.2
scipy 1.7.1 Seaborn 0.11.2 Send2Trash 1.8.0
setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 58.0.4 sei 1.16.0 ssh-import-id (comando per l'importazione di chiavi SSH) 5.10
statsmodels 0.12.2 tenacità 8.0.1 finito 0.9.4
percorso di prova 0.5.0 threadpoolctl 2.2.0 tornado 6.1
traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.1.0 aggiornamenti non supervisionati 0,1 urllib3 1.26.7
virtualenv 20.8.0 wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 codifiche web 0.5.1
ruota 0.37.0 widgetsnbextension 3.6.0

Librerie R installate

Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-05-06.

Libreria Versione Libreria Versione Libreria Versione
askpass 1.1 assicura che 0.2.1 retroportazioni 1.4.1
base 4.1.3 base64enc 0.1-3 pezzo 4.0.4
bit 64 4.0.5 massa amorfa 1.2.3 stivale 1.3-28
fermentare 1.0-7 Brio 1.1.3 Scopa 0.8.0
bslib 0.3.1 cashmere 1.0.6 chiamante 3.7.0
Interpunzione 6.0-92 cellranger 1.1.0 cronometro 2.3-56
classe 7.3-20 CLI 3.3.0 Clipr 0.8.0
raggruppamento 2.1.3 strumenti per la codifica 0.2-18 spazio di colore 2.0-3
segno comune 1.8.0 compilatore 4.1.3 configurazione 0.3.1
cpp11 0.4.2 pastello 1.5.1 credenziali 1.3.2
curva 4.3.2 tabella di dati 1.14.2 Insiemi di dati 4.1.3
DBI 1.1.2 dbplyr 2.1.1 descrizione 1.4.1
strumenti per sviluppatori 2.4.3 diffobj 0.3.5 digerire 0.6.29
dplyr 1.0.9 dtplyr 1.2.1 e1071 1.7-9
puntini di sospensione 0.3.2 valutare 0.15 fan 1.0.3
colori 2.1.0 mappatura veloce 1.1.0 fontawesome 0.2.2
forzati 0.5.1 foreach 1.5.2 straniero 0.8-82
forgiare 0.2.0 Fs 1.5.2 futuro 1.25.0
futuro.applicare 1.9.0 fare gargarismi 1.2.0 elementi generici 0.1.2
Gert 1.6.0 ggplot2 3.3.6 Gh 1.3.0
gitcreds 0.1.1 glmnet 4.1-4 elementi globali 0.14.0
colla 1.6.2 Google Drive 2.0.0 Googlesheets4 1.0.0
Gower 1.0.0 grafica 4.1.3 grDispositivi 4.1.3
griglia 4.1.3 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 casco protettivo 0.2.0 rifugio 2.5.0
più alto 0.9 HMS 1.1.1 strumenti HTML 0.5.2
htmlwidgets 1.5.4 httpuv 1.6.5 httr 1.4.3
documenti di identità 1.0.1 ini 0.3.1 ipred 0.9-12
banderelle isografiche 0.2.5 Iteratori 1.0.14 jquerylib 0.1.4
jsonlite 1.8.0 KernSmooth 2.23-20 knitr 1.39
Etichettatura 0.4.2 più tardi 1.3.0 Reticolo 0.20-45
lava 1.6.10 ciclo di vita 1.0.1 ascolta 0.8.0
lubridate 1.8.0 magrittr 2.0.3 Markdown 1.1
Massa 7.3-56 Matrix 1.4-1 memorizza 2.0.1
metodi 4.1.3 mgcv 1.8-40 mimo 0.12
ModelMetrics 1.2.2.2 modelr 0.1.8 munsell 0.5.0
nlme 3.1-157 nnet 7.3-17 Derivazione numerica 2016.8-1.1
openssl 2.0.0 parallelo 4.1.3 parallelamente 1.31.1
Pilastro 1.7.0 pkgbuild 1.3.1 pkgconfig 2.0.3
pkgload 1.2.4 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.5.3 prodlim 2019.11.13 Avanzamento 1.2.2
progressr 0.10.0 promesse 1.2.0.1 proto / prototipo 1.0.0
intermediario 0.4-26 P.S. 1.7.0 purrr 0.3.4
r2d3 0.2.6 R6 2.5.1 randomForest 4.7-1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp (una libreria per il linguaggio di programmazione R) 1.0.8.3 RcppEigen 0.3.3.9.2 readr 2.1.2
readxl (software per leggere documenti Excel) 1.4.0 ricette 0.2.0 nuovo incontro 1.0.1
rematch2 2.1.2 Telecomandi 2.4.2 esempio riproducibile (reprex) 2.0.1
reshape2 1.4.4 rlang 1.0.2 rmarkdown 2.14
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1.16
rprojroot 2.0.3 Rserve 1.8-10 RSQLite 2.2.13
rstudioapi 0.13 rversions 2.1.1 rvest 1.0.2
insolenza 0.4.1 Scalabilità 1.2.0 selettore 0,4-2
informazioni sulla sessione 1.2.2 Forma 1.4.6 brillante 1.7.1
sourcetools 0.1.7 sparklyr 1.7.5 SparkR 3.3.0
spaziale 7.3-11 Splines 4.1.3 sqldf 0,4-11
SQUAREM 2021.1 statistiche 4.1.3 statistiche4 4.1.3
perizoma 1.7.6 stringr 1.4.0 Sopravvivenza 3.2-13
sys 3.4 tcltk 4.1.3 testthat 3.1.4
Tibble 3.1.7 tidyr 1.2.0 tidyselect 1.1.2
tidyverse 1.3.1 data e ora 3043.102 tinytex 0,38
strumenti 4.1.3 tzdb 0.3.0 Usa questo 2.1.5
UTF8 1.2.2 Utilità 4.1.3 UUID (Identificatore Unico Universale) 1.1-0
vctrs 0.4.1 viridisLite 0.4.0 vrooom 1.5.7
Waldo 0.4.0 baffi 0.4 withr 2.5.0
xfun 0,30 xml2 1.3.3 xopen 1.0.0
xtable 1.8-4 yaml 2.3.5 formato zip 2.2.0

Librerie di Java e Scala installate (versione del cluster Scala 2.12)

ID gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (configurazione SDK Java per AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws AWS Java SDK per Glacier 1.12.189
com.amazonaws aws-java-sdk-glue (collegamento SDK Java AWS) 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws AWS Java SDK Machine Learning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) 1.12.189
com.amazonaws Librerie aws-java-sdk-swf 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics torrente 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware ombreggiato criogenico 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.caffeine caffeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib nucleo 1.1.2
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib native_ref-java-natives (riferimenti a nativi Java) 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nitidi 1.1
com.github.fommil.netlib "netlib-native_ref-linux-x86_64-natives" 1.1
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64-natives 1.1
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guaiava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profilatore 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RILASCIO
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.ning compress-lzf (algoritmo di compressione) 1.1
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.2.1
com.typesafe.scala-logging scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) 3.7.2
com.univocity univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.15
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0.21
io.delta delta-sharing-spark_2.12 0.4.0
io.dropwizard.metrics nucleo delle metriche 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriche-controlli di salute 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metriche-servlet 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comune 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus sempliceclient_comune 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
alberi di Maven hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1,2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.1
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant launcher 1.9.2
org.apache.arrow formato freccia 7.0.0
org.apache.arrow arrow-nucleo-di-memoria 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow freccia-vettore 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.9
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-databricks
org.apache.hadoop runtime del client Hadoop 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive Hive-JDBC 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive spessori del sistema Hive 2.3.9
org.apache.hive API di archiviazione Hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy Edera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.4
org.apache.orc orc-mapreduce 1.7.4
org.apache.orc orc-shims 1.7.4
org.apache.parquet Parquet Column 1.12.0-databricks-0004
org.apache.parquet parquet-comune 1.12.0-databricks-0004
org.apache.parquet codifica parquet 1.12.0-databricks-0004
org.apache.parquet strutture in formato parquet 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus annotazioni del pubblico 0.5.0
org.apache.zookeeper guardiano dello zoo 3.6.2
org.apache.zookeeper guardiano dello zoo-juta 3.6.2
org.checkerframework verificatore qualità 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty continuazione di jetty 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty sicurezza del molo 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty applicazione web di Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket cliente WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-comune 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-repackaged (riconfezionato) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2,34
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2,34
org.glassfish.jersey.core jersey-client 2,34
org.glassfish.jersey.core jersey-comune 2,34
org.glassfish.jersey.core Jersey-server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator validatore di Hibernate 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.3.2.Finale
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client - Libreria Java per MariaDB 2.7.4
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Lamine di regolazione 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark inutilizzato 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Finale
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1