Compartilhar via


Databricks Runtime 11.3 LTS (EoS)

Observação

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte o histórico de fim de suporte e fim de vida. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, com tecnologia Apache Spark 3.3.0. O Databricks lançou essa versão em outubro de 2022.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Alterações comportamentais

[Alteração significativa] A nova versão do Python requer a atualização dos clientes Python do Databricks Connect V1

Observação

Uma atualização subsequente move a versão Python no Databricks Runtime 11.3 LTS para 3.9.21. A versão 3.9.21 não apresenta nenhuma alteração comportamental.

Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 11.3 LTS é atualizada da 3.9.5 para a 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 para Python com o Databricks Runtime 11.3 LTS devem ser atualizados para Python 3.9.7 ou posterior.

Novos recursos e aprimoramentos

Python atualizado da versão 3.9.19 para a 3.9.21

A versão Python no Databricks Runtime 11.3 LTS é atualizada da 3.9.19 para a 3.9.21.

Gatilho Único de Streaming Estruturado está obsoleto.

A configuração Trigger.Once foi preterida. O Databricks recomenda que você use Trigger.AvailableNow. Confira Configurar intervalos de gatilho do Streaming Estruturado

Alterar o caminho de origem para o Carregador Automático

Agora você pode alterar o caminho de entrada do diretório para o Carregador Automático configurado com o modo de listagem de diretórios sem precisar escolher um novo diretório de ponto de verificação. Confira Alterar o caminho de origem do Carregador Automático.

O conector Kinesis do Databricks agora dá suporte à leitura de fluxos de dados do Kinesis no modo EFO

Agora você pode usar a fonte de streaming estruturado Kinesis do Databricks no Databricks Runtime 11.3 LTS para executar consultas que leem a partir de fluxos de dados do Kinesis no modo fan-out avançado. Isso permite largura de banda dedicada por fragmento, por consumidor e entrega de registros no modo push.

Novas funções geoespaciais H3 e adição de suporte ao Photon para todas as funções H3

Apresentando quatro novas funções H3, h3_maxchild, h3_minchild, h3_pointash3 e h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Agora, todas as expressões H3 têm suporte no Photon. Confira Funções geoespaciais H3

Novos recursos para E/S preditiva

O Photon dá suporte ao modo de alcance para a execução de frames, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. O Photon também dá suporte ao modo de intervalo para quadros em crescimento, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Incremento de partições iniciais para escanear em consultas seletivas

O valor das partições iniciais a serem escaneadas foi aumentado para 10 para consulta seletiva com take/tail/limit em clusters habilitados para Photon e LIMIT no Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de processamento ao executar vários trabalhos pequenos e um aumento lento de escala. Você também pode configurar isso por meio de spark.sql.limit.selectiveInitialNumPartitions.

Visualização de novas versões de plano AQE

Apresentando versões do plano AQE que permitem visualizar as atualizações do plano de execução (runtime) da AQE (execução de consulta adaptável).

Novos modos de rastreamento de progresso assíncrono e limpeza de log

Apresentando os modos do Structured Streaming denominados monitoramento de progresso assíncrono e purgação de log assíncrona. O modo de limpeza de log assíncrono reduz a latência das consultas de streaming, removendo logs usados para acompanhamento de progresso no plano de fundo.

Agora há suporte para o Streaming Estruturado no Catálogo do Unity display()

Agora você pode usar display() quando usa o Streaming estruturado para trabalhar com tabelas registradas no Catálogo do Unity.

Os eventos de pipeline agora estão registrados no formato JSON

Azure Databricks agora grava eventos de pipeline no registro do driver em um formato JSON. Embora cada evento seja analisável no JSON, grandes eventos podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Este é um evento de exemplo.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Processamento com estado arbitrário no streaming estruturado com Python

Introdução à função applyInPandasWithState que pode ser usada para executar processamento arbitrário com estado no PySpark. Isso é equivalente à função flatMapGroupsWithState na API de Java.

Inferência de data nos arquivos CSV

Introduzindo uma inferência aprimorada de colunas de tipo de data em arquivos CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType. Você também pode ter uma combinação de formatos de data em colunas diferentes. Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data nos arquivos CSV antes do Databricks Runtime 11.3 LTS são deixadas como StringType.

Suporte para clonagem de tabelas Apache Parquet e Apache Iceberg (Visualização Pública)

O recurso de clone agora pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham as tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar as alterações incrementalmente à tabela Delta clonada usando o comando clone. Consulte Clonar incrementalmente as tabelas Parquet e Apache Iceberg no Delta Lake.

Uso de SQL para especificar locais de armazenamento no nível do esquema e do catálogo para tabelas gerenciadas do Catálogo do Unity

Agora você pode usar o comando SQL MANAGED LOCATION para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.

Alterações de comportamento

Databricks Connect 11.3.2

A atualização 11.3.2 do cliente do Databricks Connect agora é suportada. Consulte o Databricks Connect e as notas sobre a versão do Databricks Connect.

Conector Snowflake do Azure Databricks atualizado

O conector Azure Databricks Snowflake foi atualizado para a versão mais recente do código do repositório de software livre, Snowflake Data Source para Apache Spark. Agora ele é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicado e pushdown do plano de consulta interno, mantendo todos os recursos da versão de código aberto.

Agora, o cache do Hadoop para S3A está desabilitado

O cache do Hadoop (FileSystem API Apache Hadoop Main 3.3.4) para S3A agora está desabilitado. Isso é para se alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos criados recentemente são fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.

O esquema de coleção de estatísticas do Delta Lake agora corresponde à ordem da coluna na definição do esquema de tabela

Essa alteração aborda um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade na ordenação de colunas do DataFrame e da tabela. Em alguns casos, você pode encontrar degradação do desempenho de escrita devido à coleta de estatísticas em campos não rastreados anteriormente. Consulte Ignorando dados.

applyInPandasWithState gera um erro se a consulta tiver uma redistribuição após o operador

O operador applyInPandasWithState gera um erro se a consulta tiver shuffle após o operador. Isso acontece quando o usuário adiciona shuffle após a operação ou o otimizador ou o coletor adiciona shuffle implicitamente.

Atualizações da biblioteca

  • Bibliotecas de Python atualizadas:
    • distlib de 0.3.5 a 0.3.6
  • Bibliotecas do R atualizadas:
    • broom atualizado de 1.0.0 para 1.0.1
    • callr de 3.7.1 para 3.7.2
    • dplyr de 1.0.9 a 1.0.10
    • dtplyr de 1.2.1 para 1.2.2
    • forcats de 0.5.1 a 0.5.2
    • atualização de versão future de 1.27.0 para 1.28.0
    • future.apply de 1.9.0 a 1.9.1
    • gert da versão 1.7.0 para 1.8.0
    • globals de 0.16.0 a 0.16.1
    • gtable de 0.3.0 a 0.3.1
    • haven da versão 2.5.0 para a 2.5.1
    • hms de 1.1.1 para 1.1.2
    • httr de 1.4.3 a 1.4.4
    • knitr versão 1.39 a 1.40
    • modelr de 0.1.8 a 0.1.9
    • pillar de 1.8.0 a 1.8.1
    • progressr de 0.10.1 a 0.11.0
    • readxl de 1.4.0 a 1.4.1
    • reprex de 2.0.1 para 2.0.2
    • rlang de 1.0.4 a 1.0.5
    • rmarkdown de 2.14 a 2.16
    • RSQLite de 2.2.15 a 2.2.16
    • rstudioapi de 0.13 a 0.14
    • rversions de 2.1.1 a 2.1.2
    • rvest de 1.0.2 para 1.0.3
    • scales de 1.2.0 a 1.2.1
    • sparklyr de 1.7.7 a 1.7.8
    • stringr de 1.4.0 a 1.4.1
    • taxa de sobrevivência de 3.2-13 para 3.4-0
    • tinytex de 0.40 a 0.41
    • viridisLite de 0.4.0 a 0.4.1
  • Bibliotecas de Java atualizadas:
    • com.fasterxml.jackson.core.jackson-annotations de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
    • atualizar com.fasterxml.jackson.module.jackson-module-paranamer da versão 2.13.3 para a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
    • org.apache.hadoop.hadoop-client-api de 3.3.2-databricks a 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
    • org.apache.orc.orc-core de 1.7.5 a 1.7.6
    • org.apache.orc.orc-mapreduce de 1.7.5 a 1.7.6
    • org.apache.orc.orc-shims de 1.7.5 a 1.7.6
    • org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet de 2.34 para 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-common de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
    • org.glassfish.jersey.inject.jersey-hk2 de 2.34 a 2.36

Apache Spark

O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 11.2, bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-39957] [WARMFIX][sc-111425][CORE] Atraso onDisconnected para que o Driver possa receber ExecutorExitCode
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] Aprimorar o processo LaunchTask para evitar falhas de estágio causadas por mensagens de falha no envio de LaunchTask.
  • [SPARK-40474] [SC-106248][cherry-pick] Corrigir o comportamento de inferência de esquema CSV para colunas de data e hora ao introduzir detecção automática para campos de data.
  • [SPARK-40535] [SC-111243][sql] Corrigir bug o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implementar applyInPandasWithState no PySpark
  • [SPARK-40460] [SC-110832][ss] Corrigir métricas de streaming ao selecionar _metadata
  • [SPARK-40324] [SC-109943][sql] Fornecer um contexto de consulta de ParseException
  • [SPARK-40466] [SC-110899][ss] Melhorar a mensagem de erro quando dSv2 estiver desabilitado enquanto DSv1 não estiver disponível
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext deve ter um custo baixo ao ser chamado repetidamente
  • [SPARK-40169] [SC-110772][sql] Não aplicar filtros do Parquet sem referência ao esquema de dados
  • [SPARK-40467] [SC-110759][ss] Dividir FlatMapGroupsWithState até vários conjuntos de testes
  • [SPARK-40468] [SC-110813][sql] Corrigir a poda de coluna no CSV quando _corrupt_record é selecionado
  • [SPARK-40291] [SC-110085][sql] Melhorar a mensagem para a coluna que não está em grupo por erro de cláusula
  • [SPARK-40398] [SC-110762][core][SQL] Use Loop em vez de Arrays.stream api
  • [SPARK-40433] [SC-110684][ss][PYTHON] Adicionar toJVMRow em PythonSQLUtils para converter linha PySpark serializada em linha JVM
  • [SPARK-40414] [SC-110568][sql][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
  • [SPARK-40352] [SC-109945][sql] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
  • [SPARK-40470] [SC-110761][sql] Manipular GetArrayStructFields e GetMapValue na função "arrays_zip"
  • [SPARK-40387] [SC-110685][sql] Aprimorar a implementação do Spark Decimal
  • [SPARK-40429] [SC-110675][sql] Definir somente KeyGroupedPartitioning quando a coluna referenciada estiver na saída
  • [SPARK-40432] [SC-110716][ss][PYTHON] Introduza GroupStateImpl e GroupStateTimeout no PySpark
  • [SPARK-39915] [SC-110496][sql] Verifique se o particionamento de saída é especificado pelo usuário no AQE
  • [SPARK-29260] [SQL] Dar suporte a ALTER DATABASE SET LOCATION se o HMS der suporte
  • [SPARK-40185] [SC-110056][sql] Remover sugestão de coluna quando a lista de candidatos estiver vazia
  • [SPARK-40362] [SC-110401][sql] Corrigir canonicalização BinaryComparison
  • [SPARK-40411] [SC-110381][ss] Refatorar FlatMapGroupsWithStateExec para ter um trait pai
  • [SPARK-40293] [SC-110084][sql] Tornar a mensagem de erro da tabela V2 mais significativa
  • [SPARK-38734] [SC-110383][sql] Remover a classe de erro INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Corrigir os nomes das colunas na função "arrays_zip" quando as matrizes são referenciadas a partir de estruturas aninhadas
  • [SPARK-40276] [SC-109674][core] Reduza o tamanho do resultado de RDD.takeOrdered
  • [SPARK-40197] [SC-109176][sql] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][sql] Migrar para a DATATYPE_MISMATCH classe de erro
  • [SPARK-40149] [SC-110055][sql] Propagar colunas de metadados por meio de Project
  • [SPARK-40280] [SC-110146][sql] Adicionar suporte para o push parquet para int anotado e longo
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Não produza o mapa vazio de parâmetros da mensagem de erro
  • [SPARK-40295] [SC-110070][sql] Permitir funções V2 com argumentos literais na distribuição/ordenação de gravação
  • [SPARK-40156] [SC-109264][sql] url_decode() deve retornar uma classe de erro
  • [SPARK-39195] [SQL] Spark OutputCommitCoordinator deve anular a fase quando o arquivo confirmado não for consistente com o status da tarefa
  • [SPARK-40260] [SC-109424][sql] Use classes de erro nos erros de compilação de GROUP BY uma posição
  • [SPARK-40205] [SC-110144][sc-109082][SQL] Forneça um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [SC-109676][sql] Aprimorar a função TO_BINARY()
  • [SPARK-40209] [SC-109081][sql] Não altere o valor do intervalo de Decimal em changePrecision() em caso de erros
  • [SPARK-40319] [SC-109873][sql] Remover método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][sql] Try_add/try_divide/try_subtract/try_multiply numéricos deve gerar erro de seus filhos
  • [SPARK-40183] [SC-108907][sql] Utilize a classe de erro NUMERIC_VALUE_OUT_OF_RANGE para overflow na conversão de valores decimais
  • [SPARK-40180] [SC-109069][sql] Formatar mensagens de erro por spark-sql
  • [SPARK-40153] [SC-109165][sql] Unificar funções de resolução e funções com valor de tabela
  • [SPARK-40308] [SC-109880][sql] Permitir que argumentos delimitadores não flexíveis sejam usados na função str_to_map
  • [SPARK-40219] [SC-110052][sc-109663][SQL] Plano lógico de exibição resolvido deve conter o esquema para evitar pesquisa redundante
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Formatar mensagens de erro no Thrift Server
  • [SPARK-39917] [SC-109038][sql] Use classes de erro diferentes para estouro aritmético numérico/intervalo
  • [SPARK-40033] [SC-109875][sql] Suporte de poda de esquema aninhado por meio de element_at
  • [SPARK-40194] [SC-109660][sql] A função SPLIT em expressão regular vazia deve truncar a cadeia de caracteres vazia no final.
  • [SPARK-40228] [SC-109835][sql] Não simplifique multiLike caso a expressão 'child' não seja de baixo custo
  • [SPARK-40039] [SC-109896][sc-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação para streaming com base na interface Anulável do Hadoop
  • [SPARK-40285] [SC-109679][sql] Simplificar o roundTo[Numeric] para Spark Decimal
  • [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison deve funcionar quando o rebaixamento de tipo de literal de In/InSet falhou
  • [SPARK-40040] [SC-109662][sql] Propagar o limite local para ambos os lados se a condição de junção estiver vazia
  • [SPARK-40055] [SC-109075][sql] listCatalogs também deve retornar spark_catalog mesmo quando a implementação de spark_catalog for defaultSessionCatalog
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) pode não criar N partições na parte não AQE
  • [SPARK-40207] [SC-109401][sql] Especifique o nome da coluna quando o tipo de dados não tiver suporte pela fonte de dados
  • [SPARK-40245] [SC-109295][sql] Corrigir verificação de igualdade FileScan quando as colunas de partição ou filtro de dados não são lidas
  • [SPARK-40113] [SC-109405][sql] Implementações de interface de reator ParquetScanBuilder DataSourceV2
  • [SPARK-40211] [SC-109226][core][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
  • [SPARK-40252] [SC-109379][sql] Substituir Stream.collect(Collectors.joining) por StringJoiner API
  • [SPARK-40247] [SC-109272][sql] Correção da verificação de igualdade do BitSet
  • [SPARK-40067] [SQL] Usar Table#name() em vez de Scan#name() para preencher o nome da tabela no nó BatchScan no SparkUI
  • [SPARK-39966] [SQL] Usar o filtro V2 em SupportsDelete
  • [SPARK-39607] [SC-109268][sql][DSV2] Função de suporte de distribuição e ordenação V2 por escrito
  • [SPARK-40224] [SC-109271][sql] Fazer com que o ObjectHashAggregateExec libere memória de maneira antecipada quando houver fallback para basedado em ordenação.
  • [SPARK-40013] [SQL] As expressões DS V2 devem ter o padrão toString
  • [SPARK-40214] [SC-109079][python][SQL] adicione 'get' às funções
  • [SPARK-40192] [SC-109089][sql][ML] Remover groupby redundante
  • [SPARK-40146] [SC-108694][sql] Simplificar o codegen para obter o valor do mapa
  • [SPARK-40109] [SQL] Nova função SQL: get()
  • [SPARK-39929] [SQL] O DS V2 dá suporte ao envio de funções de cadeia de caracteres (não ANSI)
  • [SPARK-39819] [SQL] O push down de agregação do DS V2 pode funcionar com Top N ou Paginação (Ordenar com expressões)
  • [SPARK-40213] [SC-109077][sql] Suporte à conversão de valor ASCII para caracteres Latino-1
  • pt-BR: [SPARK-39887] [SQL] RemoveRedundantAliases deve manter os aliases que tornam exclusiva a saída dos nós de projeção
  • [SPARK-39764] [SQL] Tornar PhysicalOperation igual a ScanOperation
  • [SPARK-39964] [SQL] O pushdown do DS V2 deve unificar a rota de tradução
  • [SPARK-39528] [SQL] Usar o filtro V2 em SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] Modo ANSI: sempre retornar nulo no acesso inválido à coluna do mapa
  • [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
  • [SPARK-39833] [SC-108736][sql] Desabilitar o índice de coluna Parquet no DSv1 para corrigir um problema de exatidão no caso de sobreposição de partições e colunas de dados
  • [SPARK-39880] [SQL] O comando SHOW FUNCTIONS V2 deve imprimir o nome da função qualificada, como v1
  • [SPARK-39767] [SQL] Remover UnresolvedDBObjectName e adicionar UnresolvedIdentifier
  • [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Mapa)
  • [SPARK-40136] [SQL] Corrigir o fragmento dos contextos de consulta SQL
  • [SPARK-40107] [SC-108689][sql] Retirar a conversão empty2null do FileFormatWriter
  • [SPARK-40121] [PYTHON][sql] Inicializar projeção usada para Python UDF
  • [SPARK-40128] [SQL] Fazer com que VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
  • [SPARK-40132] [ML] Recuperar rawPredictionCol em MultilayerPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][sql] Aprimorar EliminateSorts para dar suporte à remoção de classificações por meio de LocalLimit
  • [SPARK-39629] [SQL] Suporte v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Adicionar sobrecarga de array_sort(coluna, comparador) às operações do DataFrame
  • [SPARK-40117] [PYTHON][sql] Converter condição em java em DataFrameWriterV2.overwrite
  • [SPARK-40105] [SQL] Aprimorar a repartição em ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Adicionar o nome do catálogo da sessão para a tabela e a função da base de dados v1
  • [SPARK-39889] [SQL] Usar classes de erro diferentes para valores numéricos ou de intervalo divididos por 0
  • [SPARK-39741] [SQL] Dar suporte à codificação/decodificação de URL como função incorporada e organizar funções relacionadas à URL
  • [SPARK-40102] [SQL] Usar SparkException em vez de IllegalStateException no SparkPlan
  • [SPARK-40014] [SQL] Dê suporte à conversão de decimais para intervalos ANSI
  • [SPARK-39776] [SQL][follow] Atualização UT de PlanStabilitySuite no modo ANSI
  • [SPARK-39963] [SQL] Simplificar SimplifyCasts.isWiderCast

Atualizações de manutenção

Confira Atualizações de manutenção do Databricks Runtime 11.3.

Ambiente do sistema

  • Sistema operacional: Ubuntu 20.04.5 LTS
    • Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Bibliotecas de Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
argon2-cffi 20.1.0 gerador assíncrono 1,10 atributos 21.2.0
chamada de retorno 0.2.0 backports.entry-points-selectable 1.1.1 preto 22.3.0
alvejante 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
normalizador de conjunto de caracteres 2.0.4 clique 8.0.3 criptografia 3.4.8
ciclista 0.10.0 Cython 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 decorador 5.1.0 defusedxml 0.7.1
distlib 0.3.6 pontos de entrada 0,3 Visão geral de facetas 1.0.0
bloqueio de arquivo 3.8.0 IDNA 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.7.0
Jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 Cliente Jupyter 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 Mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 notebook 6.4.5 numpy 1.20.3
embalagem 21,0 Pandas 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 Patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Almofada 8.4.0
caroço 21.2.4 platformdirs 2.5.2 enredo 5.9.0
prometheus-client 0.11.0 kit de ferramentas de prompt 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
Pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-dateutil 2.8.2 Pytz 2021.3
pyzmq 22.2.1 solicitações 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-aprender 0.24.2 Scipy 1.7.1
seaborn (biblioteca de visualização em Python) 0.11.2 Send2Trash 1.8.0 Ferramentas de configuração 58.0.4
seis 1.16.0 ssh-import-id 5.10 statsmodels (biblioteca para modelos estatísticos em Python) 0.12.2
tenacidade 8.0.1 terminado 0.9.4 caminho de teste 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.0 extensões de digitação 3.10.0.2
atualizações não supervisionadas 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 codificações web 0.5.1 wheel 0.37.0
widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo do CRAN da Microsoft em 2022-09-08. O instantâneo não está mais disponível.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1,1 afirme isso 0.2.1 retroportações 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 ciar 1.3-28
Fabricação de cerveja 1.0-7 Brio 1.1.3 vassoura 1.0.1
bslib 0.4.0 cachem 1.0.6 chamador 3.7.2
circunflexo 6.0-93 Cellranger 1.1.0 crono 2.3-57
classe 7.3-20 Interface de Linha de Comando (CLI) 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 espaço de cores 2.0-3
commonmark 1.8.0 compilador 4.1.3 configuração 0.3.1
cpp11 0.4.2 giz de cera 1.5.1 credenciais 1.3.2
encurvar 4.3.2 Tabela de Dados 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.3 dbplyr 2.2.1 Descrição 1.4.1
devtools 2.4.4 diffobj 0.3.5 hash 0.6.29
iluminação para baixo 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 reticências 0.3.2 avaliar 0.16
fansi 1.0.3 cores 2.1.1 mapa rápido 1.1.0
fontawesome 0.3.0 para gatos 0.5.2 para cada 1.5.2
estrangeiro 0.8-82 forja 0.2.0 fs 1.5.2
futuro 1.28.0 future.apply 1.9.1 gargarejar 1.2.0
genéricos 0.1.3 Gert 1.8.0 ggplot2 3.3.6
Gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globais 0.16.1 cola 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 Gower 1.0.0 gráficos 4.1.3
grDevices 4.1.3 grade 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.1 capacete de segurança 1.2.0
refúgio 2.5.1 mais alto 0,9 Hms 1.1.2
ferramentas HTML 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 Identificadores 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1.40 rotulagem 0.4.2 posterior 1.3.0
treliça 0.20-45 lava vulcânica 1.6.10 ciclo de vida 1.0.1
ouça 0.8.0 lubrificado 1.8.0 magrittr 2.0.3
redução de preço 1,1 MISSA 7.3-56 Matriz 1.4-1
memorizar 2.0.1 Métodos 4.1.3 mgcv 1.8-40
mímica 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelador 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
paralelo 4.1.3 paralelamente 1.32.1 coluna 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 Prodlim 2019.11.13 profvis 0.3.7
progresso 1.2.2 progressr 0.11.0 Promessas 1.2.0.1
proto 1.0.0 proxy 0.4-27 P.S. 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 Readr 2.1.2 readxl 1.4.1
Receitas 1.0.1 jogo de revanche 1.0.1 revanche2 2.1.2
Controles remotos 2.4.2 exemplo reprodutível (reprex) 2.0.2 remodelar2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0,14
rversions 2.1.2 rvest 1.0.3 Sass 0.4.2
escamas 1.2.1 Seletor 0.4-2 informações de sessão 1.2.2
forma 1.4.6 brilhante 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 espacial 7.3-11
Splines 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
estatísticas 4.1.3 estatísticas4 4.1.3 stringi 1.7.8
stringr 1.4.1 sobrevivência 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
formatação de texto 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 data e hora 4021.104
tinytex 0,41 Ferramentas 4.1.3 tzdb 0.3.0
verificador de URL 1.0.1 usethis 2.1.6 utf8 1.2.2
utilitários 4.1.3 identificador único universal (UUID) 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 Vroom 1.5.7 Waldo 0.4.0
vibrissa 0,4 murchar 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML 2.3.5 zíper 2.2.0

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws SDK Java para o ECS da AWS 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.189
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.datatype jackson-module-paranamer 2.13.4
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.13.4
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java-nativos 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Sininho 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas-verificações de saúde 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (métricas em JSON) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty Netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty Netty Resolver 4.1.74.Final
io.netty Netty Tcnative Classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API de transação 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow seta-memória-core 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.9
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop api de cliente hadoop 3.3.4-databricks
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.4
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-calços 1.7.6
org.apache.parquet coluna parquet 1.12.0-databricks-0007
org.apache.parquet parquet-comum 1.12.0-databricks-0007
org.apache.parquet codificação-parquet 1.12.0-databricks-0007
org.apache.parquet estruturas-do-formato-parquet 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus comentários da audiência 0.5.0
org.apache.zookeeper zelador de zoológico 3.6.2
org.apache.zookeeper guarda de zoológico-juta 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty segurança do jetty 9.4.46.v20220331
org.eclipse.jetty servidor jetty 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty Webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API de WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket servidor WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-comum 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc cliente Java do MariaDB 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1