Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Nota
Questa versione di Databricks Runtime ha raggiunto la fine della vita e non è più disponibile. Per le date di fine vita, vedere Fine del supporto e cronologia di fine vita. Per informazioni sui criteri di supporto e sulla pianificazione di Databricks Runtime, si veda Ciclo di vita del supporto di Databricks.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 10.0 e Databricks Runtime 10.0 Photon, con tecnologia Apache Spark 3.2.0. Databricks ha rilasciato questa versione nell'ottobre 2021. Photon è disponibile in anteprima pubblica.
Miglioramenti e nuove funzionalità
- Nuova versione di Apache Spark
- SELECT 'istruzione supporta ora la clausola QUALIFY per il filtraggio dei risultati della funzione window
- Supporto del cluster per JDK 11 (anteprima pubblica)
- Il caricatore automatico ora considera gli schemi come nullable
Nuova versione di Apache Spark
Databricks Runtime 10.0 e Databricks Runtime 10.0 Photon includono Apache Spark 3.2.0. Per informazioni dettagliate, vedere Apache Spark.
SELECT istruzione supporta ora la QUALIFY clausola per filtrare i risultati della funzione finestra
Ora, l'istruzione SELECT supporta la clausola QUALIFY.
QUALIFY può essere usato per filtrare i risultati delle funzioni finestra. Una o più funzioni finestra devono essere presenti nell'elenco di SELECT o nella condizione di QUALIFY. Ad esempio:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Supporto del cluster per JDK 11 (anteprima pubblica)
Databricks offre ora il supporto del cluster per Java Development Kit (JDK) 11.
Quando si crea un cluster, è possibile specificare che il cluster usa JDK 11 (sia per il driver che per l'executor). A tale scopo, aggiungere la seguente variabile di ambiente a
JNAME=zulu11-ca-amd64
Il caricatore automatico ora tratta gli schemi come nullabili.
Il Caricatore Automatico ora considera tutti gli schemi dedotti e forniti dall'utente come annullabili, ovvero possono assumere valori nulli, per impostazione predefinita. Ciò consente di evitare potenziali danneggiamenti dei dati nei casi in cui i dati contengono campi null per colonne non-nullable. Viene introdotta una nuova configurazione per tenere traccia di questo comportamento, spark.databricks.cloudFiles.schema.forceNullable. Per impostazione predefinita, questa configurazione contiene l'impostazione di spark.sql.streaming.fileSource.schema.forceNullable, usata da FileStreamSource in Apache Spark e impostata su true per impostazione predefinita.
Cambiamenti radicali
Modifiche di rilievo per tutti gli utenti di Spark SQL
- Nuova configurazione
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: se impostata sutrue, consente un sottoinsieme di predicati di uguaglianza correlati nel caso in cui una sottoquery venga aggregata. L'impostazione predefinita ètrue. - Nuova configurazione di
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: quando è impostata sutrue, blocca l'autogenerazione degli alias quando vengono create le viste. L'impostazione predefinita ètrue. - Nuova configurazione di
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: quando impostata sutrue, impedisceCREATE TABLE AS SELECTse la posizione non è vuota. L'impostazione predefinita ètrue. Si noti che quandospark.sql.legacy.allowNonEmptyLocationInCTASè impostato anche sutrue, questa configurazione non ha alcun effetto eCREATE TABLE AS SELECTcon una posizione non vuota è sempre consentita.
Modifiche di rilievo per gli utenti di Spark SQL che abilitano la modalità ANSI
Per informazioni sulla modalità ANSI, vedere Conformità ANSI in Databricks Runtime.
Nuova configurazione di
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: se impostata sutrue, un argomento didayOfWeeknon valido per la funzionenext_daygenera unIllegalArgumentExceptionin modalità ANSI; in caso contrario restituiscenull. L'impostazione predefinita ètrue.Nuova configurazione
spark.databricks.behaviorChange.SC83796CanCast.enabled: se impostata sutrue, abilita nuove regole di sintassi cast esplicite in modalità ANSI. L'impostazione predefinita ètrue.Nuova configurazione
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: quando è impostata sutrue, viene sollevata un'eccezione di errore di analisi se una stringa viene convertita in un Boolean; in caso contrario, restituiscenull. L'impostazione predefinita ètrue.Nuova configurazione
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: se impostata sutrue, la funzioneabsgenera un'eccezione se l'input è al di fuori dell'intervallo. L'impostazione predefinita ètrue.
Modifiche di rilievo per tutti gli utenti Python
- L'API
delta.tables.DeltaTable.convertToDeltaPython restituisce ora l'oggetto Python correttoDeltaTableche può essere usato per eseguire i comandi Delta Lake. In precedenza restituiva un oggetto interno che non poteva essere chiamato direttamente.
Aggiornamenti della libreria
Aggiornamento di Apache Hadoop 3
- Databricks Runtime 10.0 aggiorna la dipendenza hadoop da Hadoop 2.7.4 a Hadoop 3.3.1.
Modifiche del comportamento
- Hadoop 3 usa le librerie hadoop-client-api e hadoop-client-runtime invece della libreria hadoop-common , che shades alcune dipendenze di terze parti che potrebbero essere usate nelle API pubbliche o nelle estensioni di Hadoop.
- Le opzioni di configurazione di Hadoop 3 sono state modificate a partire da Hadoop 2. Per le opzioni di Hadoop 3.3.1, vedere core-default.xml.
- Databricks ha aggiornato alcune delle configurazioni predefinite per Hadoop 3 in modo che siano coerenti con Hadoop 2, per assicurarsi che i connettori di archiviazione abbiano le stesse impostazioni di autenticazione predefinite e gli stessi livelli di prestazioni:
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- Il connettore Google Cloud Storage (GCS) è stato aggiornato dalla versione 2.1.6 alla versione 2.2.2.
- Il connettore Amazon Redshift ora usa lo
s3a://schema . Los3n://schema è deprecato. - Gestisce i nomi delle classi OSS per l'API MetadataStore amazon S3 oltre alle classi ombreggiate. In questo modo è possibile elaborare le configurazioni OSS senza richiedere i nomi delle classi ombreggiate.
- Ad esempio, è possibile specificare la
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStoreclasse nella configurazione di Hadoop.
- Ad esempio, è possibile specificare la
- Rende
new Configuration()esparkContext.hadoopConfigurationcoerenti tra loro.- Ora ogni volta che viene creata una nuova configurazione hadoop, sarà coerente con la configurazione predefinita di Hadoop in
sparkContext.hadoopConfigurationin Databricks Runtime, inclusi gli schemi di file system e la relativa configurazione predefinita.
- Ora ogni volta che viene creata una nuova configurazione hadoop, sarà coerente con la configurazione predefinita di Hadoop in
- Anche se i connettori di archiviazione Hadoop inclusi in Databricks Runtime sono completamente compatibili con Hadoop 3.3.1, non è garantito che siano sincronizzati con i connettori Hadoop 3.3.1 oss e potrebbero avere un comportamento diverso.
- Il connettore Amazon S3 consente comunque (anche se con un avviso) l'autenticazione utente:segreto negli URL S3, rispetto a HADOOP-14833 che lo rimuove.
- globStatus ora restituisce sempre risultati ordinati(HADOOP-10798)
- Aggiunto fs.s3a.endpoint se non impostato e fs.s3a.endpoint regione è null (SPARK-35878)
- La risoluzione automatica della regione Amazon S3 fornita da Databricks potrebbe non essere attivata in alcuni casi, a causa dell'impostazione dell'endpoint globale. Questo non è un problema, perché AWS SDK risolverà correttamente l'area.
- Aggiungere fs.s3a.downgrade.syncable.exceptions se non impostato (SPARK-35868)
- I codec LZ4 e Snappy non si basano sulla libreria Hadoop nativa (HADOOP-17125)
Problemi noti
- SPARK-36681 L'uso di SnappyCodec per scrivere il file di sequenza avrà esito negativo con UnsatisfiedLinkError a causa di un problema noto in Hadoop 3.3.1(HADOOP-17891)
Apache Spark
Databricks Runtime 10.0 include Apache Spark 3.2.0.
Contenuto della sezione:
- Caratteristiche salienti
- Core e Spark SQL
- Structured Streaming
- PySpark
- MLlib
- Deprecazioni e rimozioni
Caratteristiche salienti
- Supportare il livello API Pandas in PySpark(SPARK-34849)
- Sessionizzazione basata su TempoEvento (finestra di sessione)(SPARK-10816)
- Supporto dei tipi ANSI SQL INTERVAL (SPARK-27790)
- MODALITÀ ANSI GA(SPARK-35030)
- Standardizzare i messaggi di eccezione in Spark (SPARK-33539)
Core e Spark SQL
Miglioramenti della compatibilità SQL ANSI
- Supporto dei tipi ANSI SQL INTERVAL (SPARK-27790)
- Nuove regole di sintassi di coercizione dei tipi in modalità ANSI (SPARK-34246)
Miglioramenti delle prestazioni
- Ottimizzazione delle query
- Rimuovere le aggregazioni ridondanti in Optimizer(SPARK-33122)
- Limita la propagazione attraverso il Progetto con Join (SPARK-34622)
- Stima della cardinalità dell'operatore union, sort e range (SPARK-33411)
- Supporto per unwrapCastInBinaryComparison nel predicato In/InSet(SPARK-35316)
- Mantenere le statistiche necessarie dopo la potatura della partizione(SPARK-34119)
- Esecuzione di query
- Abilitare il pool di buffer Zstandard per impostazione predefinita (SPARK-34340, SPARK-34390)
- Aggiungere la generazione di codice per tutti i tipi di join di tipo merge(SPARK-34705)
- Miglioramento del join del ciclo annidato(SPARK-34706)
- Supportare due livelli di mappe hash per l'aggregazione hash finale (SPARK-35141)
- Consentire agli scrittori concorrenti di scrivere partizioni dinamiche e tabelle bucket(SPARK-26164)
- Migliorare le prestazioni di elaborazione FETCH_PRIOR in Thriftserver(SPARK-33655)
Miglioramenti del connettore
- Parquet
- Aggiornare Parquet alla versione 1.12.1(SPARK-36726)
- Leggere i tipi senza segno di parquet archiviati come tipo fisico int32 in parquet (SPARK-34817)
- Leggere il tipo logico Parquet senza segno int64 archiviato come tipo fisico con segno int64 a decimal(20, 0)(SPARK-34786)
- Migliorare Parquet nel pushdown dei filtri (SPARK-32792)
- ORCO
- Aggiornare ORC alla versione 1.6.11(SPARK-36482)
- Supporto dell'evoluzione posizionale forzata ORC (SPARK-32864)
- Supportare la colonna nidificata nel lettore con vettori ORC(SPARK-34862)
- Supportare la compressione ZSTD e LZ4 nell'origine dati ORC (SPARK-33978, SPARK-35612)
- Avro
- Aggiornare Avro alla versione 1.10.2(SPARK-34778)
- Supporto dell'evoluzione dello schema Avro per le tabelle Hive partizionate con "avro.schema.literal"(SPARK-26836)
- Aggiungere nuove opzioni per l'origine dati Avro per controllare il riallineamento del datetime nella funzione di lettura (SPARK-34404)
- Aggiunta del supporto per l'URL dello schema fornito dall'utente in Avro(SPARK-34416)
- Aggiungere il supporto per la corrispondenza dello schema Catalyst-to-Avro posizionale(SPARK-34365)
- JSON
- Aggiornare Jackson alla versione 2.12.3(SPARK-35550)
- Consentire alle origini dati Json di scrivere caratteri non ascii come punti di codice (SPARK-35047)
- JDBC
- Calcolare un passo di partizione più preciso in JDBCRelation(SPARK-34843)
- Supporto filtro metastore Hive per not-in (SPARK-34538)
Miglioramenti delle funzionalità
- Sottoquery
- Migliorare le sottoquery correlate (SPARK-35553)
- Nuove funzioni predefinite
- ilike(SPARK-36674, SPARK-36736)
- current_user(SPARK-21957)
- product(SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add(SPARK-35162)
- try_divide(SPARK-35162)
- bit_get(SPARK-33245)
- Usare Apache Hadoop 3.3.1 per impostazione predefinita (SPARK-29250)
- Aggiungere checksum per blocchi di rimescolamento (SPARK-35275)
- Abilitare spark.storage.replication.proactive per impostazione predefinita(SPARK-33870)
- Supporto della pulizia dell'archiviazione di fallback durante l'arresto di SparkContext(SPARK-34142)
- Supportare le enumerazioni Java dall'API del set di dati Scala (SPARK-23862)
- ADD JAR con coordinate di ivy devono essere compatibili con il comportamento transitivo di Hive (SPARK-34506)
- Supporto comando S ADD ARCHIVE e LIST ARCHIVE(SPARK-34603)
- Consentire più percorsi per i comandi ADD FILE/JAR/ARCHIVE (SPARK-35105)
- Supportare i file di archivio come risorse nella sintassi USING per CREATE FUNCTION (SPARK-35236)
- Caricamento di SparkSessionExtensions da ServiceLoader(SPARK-35380)
- Aggiungere la funzione delle frasi alle funzioni di {scala, py} (SPARK-35418)
- Applicare spark.sql.hive.metastorePartitionPruning per tabelle non-Hive che utilizzano il Metastore Hive per la gestione delle partizioni (SPARK-36128)
- Propagare la causa della perdita di exec nell'interfaccia utente Web (SPARK-34764)
- Evitare l'inlining di With-CTEs non deterministici (SPARK-36447)
- Supportare l'analisi di tutte le tabelle in un database specifico(SPARK-33687)
- Standardizzare i messaggi di eccezione in Spark (SPARK-33539)
- Supporto (IGNORE | RESPECT) NULLS per LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE(SPARK-30789)
Altre modifiche rilevanti
- Schermo
- Nuove metriche per ExternalShuffleService(SPARK-35258)
- Aggiungere nuove API e parametri REST a livello di fase (SPARK-26399)
- Supporto delle distribuzioni delle metriche di attività ed esecuzione nell'API REST (SPARK-34488)
- Aggiungere metriche di fallback per l'aggregazione hash (SPARK-35529)
- Aggiungere count_distinct come opzione a Dataset#summary(SPARK-34165)
- Implementare ScriptTransform in sql/core(SPARK-31936)
- Rendere configurabile il timeout heartbeat del driver BlockManagerMaster (SPARK-34278)
- Rendere configurabile il nome del servizio shuffle sul lato client e consentire l'override della configurazione basata su classpath sul lato server (SPARK-34828)
- ExecutorMetricsPoller deve mantenere la fase di ingresso in stageTCMP fino a quando non si verifica un heartbeat (SPARK-34779)
- Sostituire il condizionale "if" con la clausola "filter" in RewriteDistinctAggregates(SPARK-34882)
- Correzione dell'errore quando si applica CostBasedJoinReorder al self-join(SPARK-34354)
- CREATE TABLE LIKE dovrebbe rispettare le proprietà della tabella riservata (SPARK-34935)
- Spedire il file ivySettings al driver in modalità cluster YARN (SPARK-34472)
- Risolvere le colonne comuni duplicate da USING/NATURAL JOIN(SPARK-34527)
- Nascondere le proprietà interne della vista per il comando descrivi tabella (SPARK-35318)
- Supporto per la risoluzione dei valori attr mancanti per l'hint distribute/cluster by/repartition (SPARK-35331)
- Ignorare l'errore durante il controllo del percorso in FileStreamSink.hasMetadata(SPARK-34526)
- Migliorare il supporto del magic committer di s3a inferendo configurazioni mancanti (SPARK-35383)
- Consenti di omettere : nella stringa del tipo STRUCT (SPARK-35706)
- Aggiungere un nuovo operatore per distinguere se AQE può ottimizzare in modo sicuro (SPARK-35786)
- Accodare nuovi campi struct annidati anziché ordinare per unionByName con riempimento null(SPARK-35290)
- ArraysZip deve mantenere i nomi dei campi per evitare di essere riscritto dall'analizzatore/optimizer(SPARK-35876)
- Usare "Void" come nome del tipo per NullType(SPARK-36224)
- Introduzione della nuova API a FileCommitProtocol consente la denominazione flessibile dei file (SPARK-33298)
Modifiche del comportamento
Vedere le guide alla migrazione per ogni componente: Spark Core.
Streaming Strutturato
Funzionalità principali
- Sessionizzazione basata su TempoEvento (finestra di sessione)(SPARK-10816)
- Aggiornare il client Kafka alla versione 2.8.0(SPARK-33913)
- Trigger.AvailableNow per l'esecuzione di query di streaming come Trigger.Once in più batch in Scala (SPARK-36533)
Altre modifiche rilevanti
- Introdurre una nuova opzione nella sorgente Kafka per specificare un numero minimo di record da leggere per ogni attivazione (SPARK-35312)
- Aggiungere gli offset più recenti al progresso dell'origine (SPARK-33955)
PySpark
Progetto Zen
- API Pandas in Spark (SPARK-34849)
- Abilitare mypy per pandas-on-Spark(SPARK-34941)
- Implementare supporto CategoricalDtype (SPARK-35997, SPARK-36185)
- Completare le operazioni di base di Series and Index(SPARK-36103, SPARK-36104, SPARK-36192)
- Collegare le azioni a 1.3 pandas(SPARK-36367)
- Allinea i comportamenti delle Serie con NaN a quelli di pandas (SPARK-36031, SPARK-36310)
- Implementare l'operatore unario 'inverti' della serie integrale e dell'indice (SPARK-36003)
- Implementare CategoricalIndex.map e DatetimeIndex.map(SPARK-36470)
- Implementare Index.map(SPARK-36469)
- supporto gestore degli errori per il processo Python si è arrestato (SPARK-36062)
- Usare la regola di denominazione Snake nelle API della funzione (SPARK-34306)
- Abilitare spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled per impostazione predefinita(SPARK-35419)
- Supporto per dedurre la dict annidata come struct durante la creazione di un dataframe (SPARK-35929)
Altre modifiche rilevanti
- Abilitare la modalità thread bloccata per impostazione predefinita (SPARK-35303)
- Aggiungere il supporto NullType per le esecuzioni Arrow (SPARK-33489)
- Aggiungere il supporto di Arrow self_destruct a toPandas (SPARK-32953)
- Aggiungere l'API wrapper per il target del thread in modalità fissa di pyspark (SPARK-35498)
Modifiche del comportamento
Vedi le guide alla migrazione.
MLlib
Miglioramenti delle prestazioni
- Ottimizzazione della trasformazione BucketedRandomProjectionLSH (SPARK-34220)
- w2v findSynonyms Optimization(SPARK-34189)
- ottimizzare il GEMM sparse ignorando il controllo dei limiti(SPARK-35707)
- Migliorare le prestazioni di ML ALS recommendForAll by GEMV(SPARK-33518)
Miglioramenti della formazione del modello
- Rifattorizzare l'Aggregatore Logistico - supporto alla centratura virtuale (SPARK-34797)
- Regressione Logistica Binaria con supporto all'intercetta centrato (SPARK-34858, SPARK-34448)
- Regressione logistica multinomiale con centro di supporto intercetta (SPARK-34860)
Miglioramenti di BLAS
- Sostituire integralmente com.github.fommil.netlib con dev.ludovic.netlib:2.0(SPARK-35295)
- Aggiungere un'implementazione DI BLAS vettorializzata (SPARK-33882)
- Accelerare il fallback BLAS con dev.ludovic.netlib(SPARK-35150)
Altre modifiche rilevanti
- La trasformazione OVR consente di correggere potenziali conflitti di colonna(SPARK-34356)
Deprecazioni e rimozioni
- Deprecare il parametro spark.launcher.childConnectionTimeout(SPARK-33717)
- dichiarare obsoleto GROUP BY ... SET DI RAGGRUPPAMENTO (...) e promuovere GROUP BY SET DI RAGGRUPPAMENTO (...)(SPARK-34932)
- Deprecate ps.broadcast API(SPARK-35810)
- Deprecare l'argomento
num_files(SPARK-35807) - Deprecare DataFrame.to_spark_io(SPARK-35811)
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 10.0.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Librerie Python installate
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| Antergos Linux | 10/2015 (ISO-Rolling) | appdirs | 1.4.4 | chiamata di ritorno | 0.2.0 |
| boto3 | 1.16.7 | botocore | 1.19.7 | certificato | 2020.12.5 |
| chardet | 4.0.0 | ciclista | 0.10.0 | Cython, un linguaggio di programmazione | 0.29.23 |
| dbus-python | 1.2.16 | Decoratore | 5.0.6 | distlib | 0.3.3 |
| informazioni sulla distribuzione | 0.23ubuntu1 | "Panoramica delle sfaccettature" | 1.0.0 | blocco dei file | 3.0.12 |
| IDNA | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
| ipython-genutils | 0.2.0 | jedi | 0.17.2 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jupyter-client | 6.1.12 | jupyter-core | 4.7.1 |
| kiwisolver | 1.3.1 | koala | 1.8.1 | matplotlib | 3.4.2 |
| numpy | 1.19.2 | Panda | 1.2.4 | parso | 0.7.0 |
| vittima | 0.5.1 | pexpect | 4.8.0 | pickleshare (libreria di software Python) | 0.7.5 |
| Cuscino | 8.2.0 | seme | 21.0.1 | plotly (software di visualizzazione dati) | 5.1.0 |
| prompt-toolkit | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | pyarrow | 4.0.0 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil (libreria Python per la gestione delle date) | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| richieste | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy | 1.6.2 | Seaborn | 0.11.1 |
| setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 52.0.0 | sei | 1.15.0 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.10 |
| statsmodels | 0.12.2 | tenacità | 8.0.1 | threadpoolctl | 2.1.0 |
| tornado | 6.1 | traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.0.5 | aggiornamenti senza supervisione | 0,1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 |
| ruota | 0.36.2 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2021-09-21.
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| askpass | 1.1 | assicura che | 0.2.1 | retroportazioni | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | pezzo | 4.0.4 |
| bit 64 | 4.0.5 | massa amorfa | 1.2.2 | stivale | 1.3-28 |
| fermentare | 1.0-6 | Brio | 1.1.2 | Scopa | 0.7.9 |
| bslib | 0.3.0 | cashmere | 1.0.6 | chiamante | 3.7.0 |
| Interpunzione | 6.0-88 | cellranger | 1.1.0 | cronometro | 2.3-56 |
| classe | 7.3-19 | CLI | 3.0.1 | Clipr | 0.7.1 |
| raggruppamento | 2.1.2 | strumenti per la codifica | 0.2-18 | spazio di colore | 2.0-2 |
| segno comune | 1.7 | compilatore | 4.1.1 | configurazione | 0.3.1 |
| cpp11 | 0.3.1 | pastello | 1.4.1 | credenziali | 1.3.1 |
| curva | 4.3.2 | tabella di dati | 1.14.0 | Insiemi di dati | 4.1.1 |
| DBI | 1.1.1 | dbplyr | 2.1.1 | descrizione | 1.3.0 |
| strumenti per sviluppatori | 2.4.2 | diffobj | 0.3.4 | digerire | 0.6.27 |
| dplyr | 1.0.7 | dtplyr | 1.1.0 | puntini di sospensione | 0.3.2 |
| valutare | 0.14 | fan | 0.5.0 | colori | 2.1.0 |
| mappatura veloce | 1.1.0 | forzati | 0.5.1 | foreach | 1.5.1 |
| straniero | 0,8-81 | forgiare | 0.2.0 | Fs | 1.5.0 |
| futuro | 1.22.1 | futuro.applicare | 1.8.1 | fare gargarismi | 1.2.0 |
| elementi generici | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
| Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-2 |
| elementi globali | 0.14.0 | colla | 1.4.2 | Google Drive | 2.0.0 |
| Googlesheets4 | 1.0.0 | Gower | 0.2.2 | grafica | 4.1.1 |
| grDispositivi | 4.1.1 | griglia | 4.1.1 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | rifugio | 2.4.3 |
| più alto | 0.9 | HMS | 1.1.0 | strumenti HTML | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.3 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | documenti di identità | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | banderelle isografiche | 0.2.5 |
| Iteratori | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
| KernSmooth | 2.23-20 | knitr | 1.34 | Etichettatura | 0.4.2 |
| più tardi | 1.3.0 | Reticolo | 0.20-44 | lava | 1.6.10 |
| ciclo di vita | 1.0.0 | ascolta | 0.8.0 | lubridate | 1.7.10 |
| magrittr | 2.0.1 | Markdown | 1.1 | Massa | 7.3-54 |
| Matrix | 1.3-4 | memorizza | 2.0.0 | metodi | 4.1.1 |
| mgcv | 1.8-37 | mimo | 0.11 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-152 |
| nnet | 7.3-16 | Derivazione numerica | 2016.8-1.1 | openssl | 1.4.5 |
| parallelo | 4.1.1 | parallelamente | 1.28.1 | Pilastro | 1.6.2 |
| pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
| plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| prodlim | 2019.11.13 | Avanzamento | 1.2.2 | progressr | 0.8.0 |
| promesse | 1.2.0.1 | proto / prototipo | 1.0.0 | P.S. | 1.6.0 |
| purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
| RColorBrewer | 1.1-2 | Rcpp (una libreria per il linguaggio di programmazione R) | 1.0.7 | readr | 2.0.1 |
| readxl (software per leggere documenti Excel) | 1.3.1 | ricette | 0.1.16 | nuovo incontro | 1.0.1 |
| rematch2 | 2.1.2 | Telecomandi | 2.4.0 | esempio riproducibile (reprex) | 2.0.1 |
| reshape2 | 1.4.4 | rlang | 0.4.11 | rmarkdown | 2.11 |
| RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0.13 | rversions | 2.1.1 | rvest | 1.0.1 |
| insolenza | 0.4.0 | Scalabilità | 1.1.1 | selettore | 0,4-2 |
| informazioni sulla sessione | 1.1.1 | Forma | 1.4.6 | brillante | 1.6.0 |
| sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| spaziale | 7.3-11 | Splines | 4.1.1 | sqldf | 0,4-11 |
| SQUAREM | 2021.1 | statistiche | 4.1.1 | statistiche4 | 4.1.1 |
| perizoma | 1.7.4 | stringr | 1.4.0 | Sopravvivenza | 3.2-13 |
| sys | 3.4 | tcltk | 4.1.1 | Dimostrazioni di Insegnamento | 2.10 |
| testthat | 3.0.4 | Tibble | 3.1.4 | tidyr | 1.1.3 |
| tidyselect | 1.1.1 | tidyverse | 1.3.1 | data e ora | 3043.102 |
| tinytex | 0.33 | strumenti | 4.1.1 | tzdb | 0.1.2 |
| Usa questo | 2.0.1 | UTF8 | 1.2.2 | Utilità | 4.1.1 |
| UUID (Identificatore Unico Universale) | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
| vrooom | 1.5.5 | Waldo | 0.3.1 | baffi | 0.4 |
| withr | 2.4.2 | xfun | 0.26 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
| formato zip | 2.2.0 |
Librerie di Java e Scala installate (versione del cluster Scala 2.12)
| ID gruppo | ID artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | AWS Java SDK per Glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue (collegamento SDK Java AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.11.655 |
| com.amazonaws | Librerie aws-java-sdk-swf | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | torrente | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombreggiato criogenico | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.3.4 |
| com.fasterxml.jackson.core | annotazioni jackson | 2.12.2 |
| com.fasterxml.jackson.core | jackson-core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.caffeine | caffeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | nucleo | 1.1.2 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives (riferimenti a nativi Java) | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nitidi | 1.1 |
| com.github.fommil.netlib | "netlib-native_ref-linux-x86_64-natives" | 1.1 |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guaiava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profilatore | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RILASCIO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configurazione | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) | 3.7.2 |
| com.univocity | univocità-parser | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.15 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | LAPACK | 1.3.2 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 0.19 |
| io.delta | delta-sharing-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | nucleo delle metriche | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | metriche-controlli di salute | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metriche-servlet | 4.1.1 |
| io.netty | netty-all | 4.1.63.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | sempliceclient_comune | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | agente di raccolta | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API per le transazioni | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.flusso | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| alberi di Maven | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pirolite | 04.30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant launcher | 1.9.2 |
| org.apache.arrow | formato freccia | 2.0.0 |
| org.apache.arrow | arrow-nucleo-di-memoria | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | freccia-vettore | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | testo comune | 1.6 |
| org.apache.curator | curatore-cliente | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | ricette curatori | 2.13.0 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | runtime del client Hadoop | 3.3.1 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | spessori del sistema Hive | 2.3.9 |
| org.apache.hive | API di archiviazione Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | Incubazione 4.1.0 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | Edera | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | orc-shims | 1.6.10 |
| org.apache.parquet | colonna Parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-comune | 1.12.0-databricks-0003 |
| org.apache.parquet | codifica parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | strutture in formato parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | annotazioni del pubblico | 0.5.0 |
| org.apache.zookeeper | guardiano dello zoo | 3.6.2 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.6.2 |
| org.checkerframework | verificatore qualità | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
| org.eclipse.jetty | continuazione di jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty Plus | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | sicurezza del molo | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty Server | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | applicazione web di Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | cliente WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-comune | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet del contenitore Jersey) | 2,34 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey-comune | 2,34 |
| org.glassfish.jersey.core | Jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | validatore di Hibernate | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.3.2.Finale |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotazioni | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client - Libreria Java per MariaDB | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Lamine di regolazione | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaccia di prova | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | inutilizzato | 1.0.0 |
| org.springframework | Spring Core | 4.1.4.RILASCIO |
| org.springframework | test di primavera | 4.1.4.RILASCIO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | meccanico_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Finale |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |