Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
As notas de atualização seguintes fornecem informações sobre o Databricks Runtime 18.2 (Beta).
Esta versão incorpora todas as funcionalidades, melhorias e correções de bugs de todas as versões anteriores do Databricks Runtime. A Databricks lançou esta versão em abril de 2026.
Importante
O Databricks Runtime 18.2 está em Beta. O conteúdo dos ambientes suportados pode mudar durante a versão Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.
Mudanças comportamentais
- O XPath já não recupera DTDs externos
- Preservação de estruturas NULL em INSERT, MERGE, e escritas de streaming com evolução de esquema
- Suporte NullType (VOID) em tabelas Delta
- SHOW CREATE TABLE suporta vistas métricas
- Correção para as linhas de descida do LADO EXTERIOR JOIN ESQUERDO
- NATURAL JOIN respeita a correspondência de colunas sem distinção de maiúsculas e minúsculas
- Validação de dependências SQL UDF no Unity Catalog
- Escritas otimizadas para tabelas particionadas do Unity Catalog criadas com CRTAS
- As dependências do AWS SDK v1 são sombreadas
- Corrigir a autoridade incorreta do EPSG para o SRID 102100 definido pelo ESRI
O XPath já não recupera DTDs externos
Quando avalia XPath sobre XML, Azure Databricks já não carrega as Definições de Tipo de Documento (DTDs) externas declaradas no documento. Anteriormente, o XPath podia falhar quando o XML continha uma referência DTD externa que apontava para uma URL deformada ou um endpoint inacessível. Como a validação DTD é separada da avaliação XPath, as consultas que já tiveram sucesso retornam os mesmos resultados de antes. Consultas que antes falhavam apenas durante a recuperação externa de DTD podem agora ter sucesso.
Preservação de estruturas NULL em INSERT, MERGE, e escritas em fluxo contínuo com evolução de esquema
Para INSERT, MERGE, e operações de escrita em streaming que utilizam evolução de esquema, uma struct NULL na origem é agora armazenada como NULL no destino. Anteriormente, esse valor era materializado incorretamente como uma estrutura não nula com cada campo definido como NULL, enquanto as mesmas operações sem evolução do esquema preservavam corretamente as estruturas NULLA. Se o teu código dependia de receber uma estrutura não-nula cujos campos fossem todos NULL, atualiza o teu código para gerir uma estrutura NULL em vez disso.
Suporte NullType (VOID) em tabelas Delta
As tabelas Delta agora suportam colunas VOID (do Spark NullType).
VOID as colunas já não são removidas do esquema da tabela durante a leitura. As operações de escrita não são afetadas. Consulte o tipo de VOID para restrições sobre onde colunas VOID podem aparecer no esquema.
SHOW CREATE TABLE suporta vistas métricas
SHOW CREATE TABLE Agora suporta vistas métricas. Anteriormente, executar este comando numa vista métrica gerava um erro. A saída para vistas métricas inclui o nome totalmente qualificado em três partes com catálogo (por exemplo, CREATE VIEW catalog.db.my_metric_view ...), facilitando a recriação da vista métrica na localização correta.
Correção para as linhas de descida do LADO EXTERIOR JOIN ESQUERDO
Um bug que eliminava linhas incorretamente das LEFT OUTER JOIN LATERAL consultas foi agora corrigido. As consultas que usam este construto agora retornam os resultados corretos. Para reverter temporariamente ao comportamento anterior, defina spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic para true.
NATURAL JOIN respeita a correspondência de colunas sem diferenciar maiúsculas de minúsculas
NATURAL JOIN agora utiliza corretamente a correspondência de colunas sem distinção entre maiúsculas e minúsculas quando spark.sql.caseSensitive está configurado para false (o padrão). Anteriormente, NATURAL JOIN usava comparação sensível a maiúsculas e minúsculas para identificar colunas comuns, levando a que colunas que apenas diferiam em termos de maiúsculas e minúsculas (por exemplo, ID versus id) não fossem reconhecidas como correspondentes. Isto causou NATURAL JOIN a produzir silenciosamente resultados de junção cruzada. Esta correção alinha o comportamento de NATURAL JOIN com USING as junções, que já lidavam corretamente com a insensibilidade a maiúsculas e minúsculas. As consultas afetadas por este bug agora retornam resultados corretos com colunas devidamente unidas.
Validação de dependências SQL UDF no Unity Catalog
O Unity Catalog agora impõe validação de dependências para funções SQL definidas pelo utilizador (UDFs) para evitar o desvio de controlo de acesso. Anteriormente, as funções SQL criadas através da API REST podiam referenciar dependências às quais o utilizador não tinha acesso. Os UDFs SQL com configurações de dependência inválidas estão agora bloqueados da execução.
Gravações otimizadas para tabelas particionadas do Unity Catalog criadas com CRTAS
As operações de escrita otimizadas agora são corretamente aplicadas às tabelas particionadas do Unity Catalog criadas com CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Anteriormente, o CRTAS em novas tabelas particionadas do Unity Catalog não aplicava escritas otimizadas, resultando num maior número de ficheiros pequenos por partição. Esta correção pode aumentar a latência de escrita. Para reverter ao comportamento anterior, defina spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.
As dependências do AWS SDK v1 são sombreadas
As dependências do AWS SDK v1 incluídas com o Databricks Runtime estão agora sombreadas e já não estão diretamente disponíveis no classpath. Se o seu código depende das bibliotecas AWS SDK v1 previamente fornecidas pelo Databricks Runtime, adicione-as como dependências explícitas no seu projeto. Esta alteração prepara a migração para o AWS SDK v2, após o fim do suporte AWS para o SDK v1.
Corrigir a autoridade incorreta do EPSG para o SRID 102100 definido pelo ESRI
O mapeamento do Sistema de Referência de Coordenadas (CRS) para SRID 102100 usa agora corretamente ESRI:102100 em vez do incorreto EPSG:102100. Esta solução garante que os dados geoespaciais são armazenados com a autoridade correta para uma melhor interoperabilidade com outros sistemas.
Novos recursos e melhorias
- CRIAR OU SUBSTITUIR suporte para tabelas temporárias
-
agg()Alias parameasure()função - Atualização do driver Snowflake JDBC
-
pyspark.pipelines.testingAlias de espaço de nomes - Desempenho melhorado na listagem do Auto Loader
- O histórico da tabela Delta inclui indicadores de opção de escrita
- Suporte para rebobinar e repetir Streaming Estruturado
CRIAR OU SUBSTITUIR suporte para tabelas temporárias
CREATE OR REPLACE TEMP TABLE A sintaxe é agora suportada, permitindo criar ou substituir tabelas temporárias numa única instrução. Isto elimina a necessidade de eliminar e recriar tabelas temporárias explicitamente.
agg() Alias para measure() função
agg() está agora disponível como um pseudónimo para a measure() função. Esta alteração é totalmente retrocompatível. As consultas existentes que usam measure() continuam a funcionar sem modificações e agg() produzem resultados idênticos quando usadas com os mesmos argumentos.
Atualização do driver Snowflake JDBC
O driver Snowflake JDBC foi atualizado de 3.22.0 para 3.28.0.
pyspark.pipelines.testing Alias de espaço de nomes
pyspark.pipelines.testing está agora disponível como um alias de conveniência para dlt.testing APIs. Importar utilidades de teste de pipeline Lakeflow Spark Declarative Pipelines através de qualquer um dos namespaces.
Melhoria no desempenho da listagem do Auto Loader
O Auto Loader utiliza agora um método de listagem mais eficiente que melhora a velocidade de listagem para fontes de armazenamento na cloud. Se o seu fluxo desencadear sobreposição devido a operações de listagem prolongadas, esta otimização pode resultar num aumento dos custos da API de listagem na cloud. Monitorize os intervalos de gatilho e ajuste o agendamento para evitar operações sobrepostas caso se observem aumentos de custo.
O histórico da tabela Delta inclui flags de opção de escrita
Histórico da tabela Delta (DESCRIBE HISTORY) agora inclui flags de opção de escrita na coluna operationParameters para operações de WRITE e REPLACE TABLE. Quando as seguintes opções estão explicitamente ativadas, aparecem como bandeiras booleanas no histórico (só incluídas quando true):
Para as operações WRITE e REPLACE TABLE:
-
isDynamicPartitionOverwrite: presente quando foi usado o modo de sobrescrição de partição dinâmica -
canOverwriteSchema: presente quando a sobrescrição de esquema (overwriteSchema) foi ativada -
canMergeSchema: presente quando a fusão de esquema (mergeSchema) foi ativada
Para REPLACE TABLE operações:
-
predicate: presente quandoreplaceWhereera usado -
isV1WriterSaveAsTableOverwrite: presente quando a substituição foi acionada por uma.saveAsTablesobrescrição
Suporte para retrocesso e repetição do Structured Streaming
Structured Streaming agora suporta voltar e rever para pipelines de streaming. Esta funcionalidade permite o reprocessamento a partir de um ponto anterior do fluxo para recuperar de falhas como alterações de esquema, dados de entrada deformados ou erros lógicos, sem necessidade de um reset total do estado. Isto não modifica o comportamento padrão das cargas de trabalho de streaming existentes.
Atualizações da biblioteca
Bibliotecas Python melhoradas:
Nenhuma biblioteca foi atualizada nesta versão.
Bibliotecas R atualizadas:
Nenhuma biblioteca foi atualizada nesta versão.
Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.9 a 1.3.10
Apache Spark
O Databricks Runtime 18.2 inclui o Apache Spark 4.1.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 18.1, bem como as seguintes correções adicionais de bugs e melhorias feitas ao Spark:
- SPARK-56219 Revert "[SC-225028][PS] Alinhar groupby idxmax e idxmin skipna=Comportamento falso com pandas 2/3"
- SPARK-56204 Remover wrappers de expressões de linha de tabela inline no analisador
- SPARK-56186 Descontinuar o PyPy
- SPARK-56202 Refatorar testes de junção em streaming: dividir a hierarquia Base/Suite e simplificar o despacho de modos
- SPARK-56221 Paridade de funcionalidades entre spark.catalog.* e comandos DDL
-
SPARK-56301 Corrigir erros tipográficos em
error-conditions.json - SPARK-55729 Leitor de suporte para fonte de dados de estado para novo formato de estado v4 em junções de fluxo-fluxo
- SPARK-56256 Adicionar a API emptyDataFrame ao SparkSession
- SPARK-56205 Validar o ID do checkpoint do armazenamento do estado base antes de confirmar o microbatch
- SPARK-55827 Corrigir a dica de tipo para processos de fontes de dados
- SPARK-55579 Renomear as classes de erro PySpark para serem agnósticas ao tipo de avaliação
- SPARK-56247 Corrigir o comportamento de fallback e a indicação de tipo de inheritable_thread_target
- SPARK-56244 Refinar o layout das classes de referência em bench_eval_type.py
- SPARK-56262 Remover a desativação desnecessária do mypy check para tipos
- SPARK-55969 regr_r2 deve tratar o primeiro param como variável dependente
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipos - parte 3
- SPARK-55630 Ignorar a atualização do indicador correspondente para o lado interno na união de fluxos v4
- SPARK-56217 Corrigir exceções bucketBy na ligação
- SPARK-56225 Melhorar a mensagem de erro ao visualizar com evolução SCHEMA
- SPARK-55865 Renomear _LEGACY_ERROR_TEMP_1266 para CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Renomear _LEGACY_ERROR_TEMP_2045 para UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Usar ArrowBatchTransformer.enforce_schema para substituir a lógica de coerção de tipos por coluna
- SPARK-56245 Corrigir atribuição inplace do DataFrame.eval no pandas 3
- SPARK-56062 Isolar memory_profiler para melhorar o tempo de importação
- O catálogo do sistema SPARK-55964 tem precedência sobre o catálogo de utilizadores para os esquemas BUILTIN e SESSION.
-
SPARK-56226 Erros de análise de captura antes
InternalFrame.__init__em.loc - SPARK-55723 Generalizar o erro enforce_schema para PySparkTypeError
- SPARK-54878 Adicionar a opção sortKeys à to_json função
- SPARK-56219 Align groupby idxmax e idxmin skipna=Comportamento falso com pandas 2/3
- SPARK-44065 Otimizar o desvio de BroadcastHashJoin em OptimizeSkewedJoin
- SPARK-56179 Reverter "[SC-225014][PYTHON] Consolidar classes de erro para incompatibilidade de tipos - parte 3"
- SPARK-53399 Fusão dos UDFs de Python
- SPARK-56224 Aperfeiçoar anotações de tipo para accumulators.py
- SPARK-55448 Corrigir a perda de eventos de consulta quando a sessão fecha durante a execução da consulta
- SPARK-55862 Renomear _LEGACY_ERROR_TEMP_2027 para UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Executar testes SPARK-49829 com uniões VCF agora que o StateDataSource é compatível com eles
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipos - parte 3
-
SPARK-56184 Substituir
assertpela corretaSparkRuntimeExceptionna análise da coluna de partição - SPARK-56206 Corrigir a deteção de nomes duplicados CTE insensíveis a maiúsculas minúsculas
- SPARK-55866 Renomear _LEGACY_ERROR_TEMP_2145 para OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Importação tardia de psutil para melhorar a velocidade de importação
- SPARK-56066 Importação tardia do NumPy para melhorar a velocidade de importação
- SPARK-55719 Remover aviso de descontinuação para spark.sql.hive.convertCTAS
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipos - parte 2
- SPARK-55510 Atualizar o documento structured-streaming-state-data-source.md para refletir deleteRange
- SPARK-56050 Resolver de imediato IDENTIFIER() com literais de string em tempo de análise sintática
- SPARK-56151 Melhorar a string de exibição CreateVariable
- SPARK-55751 Adicionar métricas sobre cargas de armazenamento de estado a partir do DFS
- SPARK-56188 Alinhar Series.map({}) com o comportamento de dicionário vazio do pandas 3
- SPARK-55964 Reverter "[SC-223957] catálogo do sistema tem precedência sobre o catálogo de utilizadores para esquemas BUILTIN e SESSION."
- SPARK-55577 Refatorar a lógica de wrapper, mapper e serializador do SQL_SCALAR_ARROW_ITER_UDF
- SPARK-55596 Filtragem Melhorada de Estatísticas de Partição DSV2
- SPARK-56179 Reverter "[SC-224777][PYTHON] Consolidar classes de erro para incompatibilidade de tipos - parte 2"
- O catálogo do sistema SPARK-55964 tem precedência sobre o catálogo de utilizadores nos esquemas BUILTIN e SESSION.
- SPARK-56050 Reverter "[SC-224153][SQL] Resolver imediatamente IDENTIFIER() com literais de string em tempo de análise sintática"
- SPARK-56179 Consolidar classes de erro para tipos incompatíveis - parte 2
-
SPARK-56102
UnionEstimationLimpeza de código - SPARK-51712 Ignora Throwables não fatais ao resolver tabelas/vistas em spark.catalog.listTables()
- SPARK-55881 Adicionar queryId, errorMessage e rootExecutionId à API REST de execução SQL
- SPARK-56050 Resolve IDENTIFIERcom entusiasmo () com literais de string em tempo de análise sintática
- SPARK-55628 Integrar o formato de estado de junção fluxo-fluxo V4
- SPARK-56187 Corrigir a ordenação de nulos do Series.argsort para o pandas 3
- SPARK-56167 Alinhar astype com o comportamento padrão de string do pandas 3
- SPARK-56018 Use ruff como formatador
- SPARK-56042 Corrigir métricas de contagem de famílias de col externas/internas trocadas no RocksDBStateStoreProvider
- SPARK-56179 Consolidar classes de erro para incompatibilidade de tipos - parte 1
- SPARK-56089 Alinhar asinh/acosh com o algoritmo fdlibm para compatibilidade entre motores
- SPARK-55453 Corrigir a correspondência de padrões LIKE para caracteres Unicode suplementares
- SPARK-52785 Simplificar a sintaxe super() no PySpark
-
SPARK-56169 Corrigir
ClassCastExceptionno relatório de erros quandoGetStructFieldo tipo da criança é alterado pela transformação do plano - SPARK-55557 As funções hiperbólicas não devem transbordar com valores de entrada grandes
- SPARK-47997 Adicionar parâmetro de erros ao DataFrame.drop e ao Series.drop
- SPARK-55008 Exibir ID de Consulta no SparkUI
- SPARK-54660 Adicionar o gatilho RTM ao python
-
SPARK-56047 Propagar
distinctCountatravés da Union na estimativa estatística do CBO - SPARK-56111 Adiciona o SparkContext.isDriver() e usa-o em toda a base de código
- SPARK-55999 Ativar forceSnapshotUploadOnLag por defeito
- SPARK-55610 Adicionar getExecutorInfos ao StatusTracker em Python
- SPARK-55728 Introduzir a conf para o tamanho do threadpool de checksum de ficheiros e suportar a desativação do threadpool
- SPARK-55686 O SizeEstimator trata dos Cabeçalhos de Objetos Compactos
- SPARK-56044 O HistoryServerDiskManager não apaga a App Store no lançamento quando a app não está no mapa ativo
- SPARK-55809 HeapHistogram usa DiagnosticCommandMBean em vez do subprocesso jmap
- SPARK-56122 Use a verificação numérica dtype compatível com pandas em Series.cov
- SPARK-56113 Melhorar a restauração de 3 cordas do Pandas no Pandas-on-Spark
- SPARK-56118 Manipulação de bool do Match Pandas 3.0 no GroupBy.quantile
- SPARK-53823 Implementar lista de permissão para o modo em tempo real
- SPARK-55977 Corrigir o isin() para usar correspondência de tipos rigorosa como o pandas
- SPARK-54027 Suporte RTM de origem Kafka
- SPARK-50284 Alterar a documentação da função parseJson
-
SPARK-56035 [SQL] Introdução
AggregationValidatorpara validação de resolvedoresAggregatede passagem única - SPARK-55557 Reverter "[SC-223720][SQL] As funções hiperbólicas não devem transbordar com entradas grandes"
- SPARK-56075 Remover um lote de classes de erro Python mortas
- SPARK-55967 Unificar a conversão de colunas para o dataframe Connect
- SPARK-53915 Adicionar o RealTimeScanExec e a capacidade de executar lotes de longa duração
- SPARK-55557 As funções hiperbólicas não devem transbordar com entradas grandes
- SPARK-55147 Alcance do intervalo de carimbo temporal para recuperação de junções intervaladas de tempo no formato de estado V4
- SPARK-56056 Suporta um perfil de trabalhador mais simples com o viztracer
- SPARK-55948 Adicionar a API do conector CDC DSv2, a resolução do analisador e a cláusula SQL CHANGES
- SPARK-54599 Reaplicar "[SC-219008][PYTHON] Refatorar PythonException...
- SPARK-55390 Consolidar a lógica de wrapper, mapper e serializador do SQL_SCALAR_ARROW_UDF
- SPARK-56023 Melhor balanceamento de carga no LowLatencyMemoryStream
- SPARK-55986 Atualizar Black para 26.3.1
- SPARK-55667 Mova check_dependencies para o init
- SPARK-55145 Suporte Avro para codificadores de chave de estado RocksDB baseados em carimbo temporal
- SPARK-53970 Remover a etiqueta 'opcional' incorreta para mensagemNome...
- SPARK-55059 Reverter "[SC-224058][PYTHON] Remover solução alternativa de tabela vazia no toPandas"
- SPARK-50111 Adicionar suporte a subplots para gráficos de pizza no backend do Plotly
- SPARK-56081 Alinhe o tratamento de idxmax e idxmin NA com pandas 3
- SPARK-56080 Alinhar Series.argmax/argmin com a manipulação de valores NA no pandas 3.0
- SPARK-56060 Lidar com a conversão de strings nulas no pandas 3 na função describe() para frames de carimbos temporais vazios
- SPARK-55059 Remover uma solução alternativa para tabelas vazias no ToPandas
- SPARK-55995 Suporte TIMESTAMP COM FUSO HORÁRIO LOCAL na sintaxe SQL
- SPARK-55976 Use Set em vez de Seq para privilégios de escrita
-
SPARK-56073 Simplificar a construção de
PythonRunnerConfMap -
SPARK-55887 Manuseamento especial para
CollectLimitExec/CollectTailExecevitar varreduras completas de tabela - SPARK-55980 Aplica sempre _cast_back_float em aritmética numérica
- SPARK-55357 Corrigir docstring para timestamp_add
- SPARK-55667 Reverter "[SC-223289][PYTHON][CONNECT] Mover check_dependencies para init"
- SPARK-54285 Reverter "[PYTHON] Armazenar em cache a informação de fuso horário para evitar conversão dispendiosa de marcação temporal"
- SPARK-56021 Aumentar o limiar predefinido do MaxChangeFileReplay do AutoSnapshotRepair de 50 para 500
- SPARK-55870 Adicionar documentação para tipos Geo
-
SPARK-55962 Usa
getShortem vez degetIntlançarputShortsFromIntsLittleEndianem plataformas Little Endian - SPARK-55903 Simplificar a Evolução do Esquema MERGE e Verificação de Privilégios de Escrita
- SPARK-55326 Liberte sessão remota quando SPARK_CONNECT_RELEASE_SESSION_ON_EXIT estiver definido
- SPARK-55667 Move check_dependencies para init
- SPARK-55884 Adicionar v1StatsToV2Stats a DataSourceV2Relation
- SPARK-55929 Adicionar o toString() em falta ao TableChange.UpdateColumnDefaultValue
- SPARK-55851 Esclarecer os tipos de partição e leitura da fonte de dados
- SPARK-55828 Adicionar DSV2 TableChange toString e corrigir a classe de erro em falta para Merge Into Schema Evolution
- SPARK-55790 Construir um registo SRS completo usando dados PROJ 9.7.1
- SPARK-55645 Adicionar serdeName ao CatalogStorageFormat
- SPARK-54796 Resolver o problema de NPE causado pela condição de corrida entre a inicialização do Executor e a migração de distribuição
- SPARK-55983 Nova funcionalidade de analisador de passagem única e correções de bugs
- SPARK-55964 Coerência da cache: limpar o registo de funções em DROP DATABASE
- SPARK-55868 Corrigir o Predicate Pushdown para InMemoryTable para V2Filters
- SPARK-55973 Otimização de LeftSemi para junção de fluxo-fluxo
- SPARK-54665 Corrigir comparação booleana vs string para corresponder ao comportamento do pandas
- SPARK-55539 Permitir a conversão de GeographyType para GeometryType
- SPARK-55695 Evite o planeamento duplo em operações ao nível da linha
- SPARK-55904 Utilize _check_same_session para restringir os tipos
- SPARK-55965 Adicionar aviso quando pandas >= 3.0.0 for usado com o PySpark
- SPARK-55493 [SS] Não execute mkdirs no diretório de log de commit/deslocamento de checkpoint em streaming no StateDataSource.
- SPARK-55851 Reverter "[SC-223270][PYTHON] Clarificar tipos de partição e leitura da fonte de dados"
- SPARK-55645 Revogar "[SC-221839][SQL] Adicionar serdeName ao CatalogStorageFormat"
- SPARK-55640 Propagar erros de análise sintática WKB para Geometria e Geografia
- SPARK-55693 Evite o impasse tornando o SparkSession.observationManager um val não preguiçoso
- SPARK-55528 Adicionar suporte de colação padrão para UDFs SQL
-
SPARK-55860 Utilização
UNABLE_TO_INFER_SCHEMAem vez deUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Adicionar estados de SQL do InvalidPlanInput para SQL/connect
- SPARK-55645 Adicionar serdeName ao CatalogStorageFormat
- SPARK-55716 Suporte à aplicação de restrições NOT NULL para inserções de tabelas de fontes de ficheiros V1
- SPARK-53226 Faça o ClosureCleaner funcionar com o Java22+
- SPARK-55997 Definir o limite superior para prefixScan no fornecedor de loja de estado do RocksDB
- SPARK-55851 Clarificar os tipos de partição da fonte de dados e o processo de leitura
- SPARK-55954 Remover a sugestão de tipo incorreta de sobrecarga para fillna
- SPARK-56016 Preservar colunas nomeadas da série em concat com ignore_index em pandas 3
- SPARK-55502 Unificar o tratamento de erros de conversão de flechas UDF e UDTF
-
SPARK-55989 Manter os dtypes de índice não-int64 em
restore_index - SPARK-55955 Remover indicação de tipo de sobrecarga para drop
- SPARK-55945 [SDP] Suporte a identificadores estruturados para fluxos em protos de análise SDP eager
- SPARK-55714 O JDK pode lançar ArithmeticException sem mensagem
- SPARK-55991 Corrigir corrupção de texto SQL relacionada ao Unicode com parâmetros
- SPARK-55696 Adicionar erro explícito ao Encoders.bean para a classe interface
- SPARK-55533 Apoio: IGNORAR OS NULLS / RESPEITAR OS NULLS para collect_set
- SPARK-55987 Corrigir a extração de timestamp de junção em janelas V4 usando findJoinKeyOrdinalForWatermark
- SPARK-55946Configura pandas_priority para que operações binárias mistas despachem corretamente para pandas-on-Spark
- SPARK-55264 Adicionar o comando ExecuteOutput ao protocolo de pipelines do Spark Connect
- SPARK-47672 Evitar a avaliação dupla do filtro com rebaixamento do filtro e projeção
- SPARK-55780 Substituir o logótipo PNG por SVG na interface web do Spark
- SPARK-55821 Impor argumentos apenas por palavra-chave nos métodos init do serializador
- SPARK-55621 Corrigir o uso ambíguo e desnecessário de Unicode
- SPARK-55662 Implementação do argumento do eixo idxmin
- SPARK-55631ALTER TABLE deve invalidar a cache das tabelas DSv2
-
SPARK-55692 Corrigir
SupportsRuntimeFilteringeSupportsRuntimeV2Filteringdocumentação - SPARK-55928 Novo linter para a eficácia da configuração em views e UDFs
- SPARK-55440 Estrutura de Tipos - Fase 1a - Fundação do Sistema de Tipos Principais
- SPARK-55631 Reverter "[SC-221596][SQL] ALTER TABLE deve invalidar cache para tabelas DSv2"
- SPARK-55631ALTER TABLE deve invalidar o cache das tabelas DSv2
-
SPARK-55683 Otimizar
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 A correção não foi possível carregar a memória de estado porque o ficheiro SST reutilizado foi eliminado pela manutenção
- SPARK-55946 Revertir "[SC-223027][PS] Configurar pandas_priority para que operações binárias mistas sejam despachadas corretamente para pandas-on-Spark"
- SPARK-55891 Preservar o contexto de scripting SQL dentro de EXECUTE IMMEDIATE
- SPARK-55907 Corrigir posições de erro incorretas para tipos de dados inválidos em CREATE FUNCTION
- SPARK-55946Configura pandas_priority para que operações binárias mistas despachem corretamente para pandas-on-Spark
- SPARK-55694 Restrições de bloco em CTAS/RTAS ao nível do analisador
-
SPARK-55682 Iterador retornado do ServiceLoader pode lançar
NoClassDefFoundErroremhasNext() - SPARK-55155 Corrigir SETCATALOG para usar caracteres especiais e backticks no nome do identificador
- SPARK-55932 Corrigir suspensão no parser XML para variantes devido à escala negativa
- SPARK-55673 Adicionar mais testes para codificador de tipos aninhados
- SPARK-55679 Corrigir a deteção no Java 25
- SPARK-55957 Adicione 'DATA_SOURCE_NOT_FOUND' em Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Adicionar propriedades AQEShuffleRead à Árvore de Planos Físicos
-
SPARK-55652 Otimize
VectorizedPlainValuesReader.readShorts()com acesso direto a matrizes para buffers de heap -
SPARK-55659 Melhorar o
EventLogFileWriterpara registar astopoperação -
SPARK-54666 Deixe os tipos numéricos inalterados no
to_numeric - SPARK-55654 Ativar a filtragem TreePattern para EliminateSubqueryAliases e ResolveInlineTables
- SPARK-55533 Revertir "[SC-220538][SQL] Suporte IGNORAR NULOS / RESPEITAR NULOS para collect_set"
- SPARK-55901 Gerar um erro da função Series.replace() quando não são fornecidos argumentos
- SPARK-55896 Use funções numpy em vez de funções embutidas
-
SPARK-55655 Tornar
CountVectorizero vocabulário determinístico quando as contagens são iguais -
SPARK-55811 [SQL] Apanhar
NonFatalem vez deUnresolvedExceptionao chamarnodeWithOutputColumnsString - SPARK-55533 Apoio: IGNORAR OS NULLS / RESPEITAR OS NULLS para collect_set
-
SPARK-55435 Utilização
StringBuilderem vez deStringBuffer - SPARK-54807 Permitir nomes qualificados para funções incorporadas e de sessão (#198171)
- SPARK-55854 Etiqueta a passagem dos atributos duplicados na saída de Expand para evitar referências ambíguas
- SPARK-55261 Implementar suporte de leitura Parquet para tipos geográficos
- SPARK-55416 Fuga de memória na fonte de dados de streaming Python quando o offset final não é atualizado
- SPARK-55465 Suporte para GeometryType em convert_numpy
- SPARK-55801 Corrigir a indicação de tipo de _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Remover a verificação de tipo não utilizada para datetime.date
- SPARK-55663Módulo unificador para funções de fonte de dados
- SPARK-55665 Unificar a forma como os trabalhadores estabelecem ligação com o executor
- SPARK-53446 Otimizar operações de remoção do BlockManager com mapeamentos de blocos em cache
- SPARK-55867 Corrigir Métodos de Strings com pandas 3
- SPARK-55501 Corrigir listagg distinct + dentro da ordem do grupo por bug
- SPARK-55558 Adicionar suporte para operações de conjuntos Tuple/Theta
- SPARK-55636 Adicionar erros detalhados em caso de deduplicação de colunas inválidas
- SPARK-55788 Suporte a ExtensionDType para inteiros no Pandas UDF
- SPARK-55464 Suporte para GeographyType em convert_numpy
- SPARK-55530 Suportar conjuntos de resultados Geo em servidores Hive e Thrift
- SPARK-55525 Corrigir UDTF_ARROW_TYPE_CONVERSION_ERROR com parâmetro de mensagem de erro indefinido
- SPARK-55626 Não carregue colunas de metadados na Table a menos que seja necessário no V2TableUtil
- SPARK-55533 Revertir "[SC-220538][SQL] Suporte IGNORAR NULOS / RESPEITAR NULOS para collect_set"
-
SPARK-55435 Anular "[SC-219656][CORE][SQL] Usar
StringBuilderem vez deStringBuffer" - SPARK-55533 Apoio: IGNORAR OS NULLS / RESPEITAR OS NULLS para collect_set
-
SPARK-54452 Corrigir a resposta vazia do servidor SparkConnect para
spark.sql(...)dentro do FlowFunction - SPARK-55638 Refatorar a serialização WKT no GeometryModel
-
SPARK-55551 Melhorar
BroadcastHashJoinExeca partição de saída - SPARK-54314 Melhorar a capacidade de debugging da funcionalidade Server-Side no Spark Connect, capturando o nome de ficheiro e os números de linha da aplicação cliente
-
SPARK-55517 Otimize
VectorizedPlainValuesReader.readBytes()com acesso direto a arrays para buffers de heap -
SPARK-55495 Corrigir
EventLogFileWriters.closeWriterpara lidar comcheckError -
SPARK-55279 Adicionar
sketch_funcsgrupo para funções SQL do DataSketches -
SPARK-55435 Utilização
StringBuilderem vez deStringBuffer - SPARK-55064 Suporte ao nível de consulta para embaralhamento indeterminado
- SPARK-55411 O SPJ pode lançar ArrayIndexOutOfBoundsException quando as chaves de junção são inferiores às das chaves do cluster
- SPARK-55451 Os cursores devem começar a recolher resultados em OPEN, não no primeiro FETCH
- SPARK-54687 Adicione mais casos extremos com geradores
- SPARK-55691 Cliente GetStatus
-
SPARK-55277 Adicionar
protobuf_funcsgrupo para funções Protobuf SQL -
SPARK-55822 Renomear
_LEGACY_ERROR_TEMP_0052paraCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Resolver exceção inesperada em alguns casos de teste CoarseGrainedExecutorBackendSuite
- SPARK-55275 Cobertura de Estado SQL: IllegalStateException
- SPARK-55462 Reaplicar "[SC-221123][PYTHON] Suporte a VariantType em convert_numpy"
- SPARK-55062 Suportar extensões proto2 em funções protobuf
-
SPARK-55248 Limpar o uso obsoleto da API de Jackson em
streaming.checkpointing.Checksum - SPARK-55250 Reduzir chamadas do cliente Hive ao CRIAR NAMESPACE
-
SPARK-55247 Limpar o uso obsoleto da API relacionado com
o.a.c.io.input.BoundedInputStream - SPARK-55198 o spark-sql deverá ignorar a linha de comentário com espaços em branco iniciais
-
SPARK-55826 Renomear
_LEGACY_ERROR_TEMP_0006paraMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Adicionar avro_funcs grupo para funções Avro SQL
- SPARK-54914 [SQL] Correção do operador DROP na sintaxe do pipe para suportar nomes de colunas qualificados
-
SPARK-55113
EnsureRequirementsDeve copiar etiquetas - SPARK-55074 Adicionar teste para coerção de tipo 'Merge Into' em ANSI
- SPARK-54217 Sincronizar a decisão de eliminação do MonitorThread do PythonRunner
- SPARK-54374 Amplie o atributo SVG viewBox da inicialização da visualização de planos SQL
- SPARK-54971 Adicionar a sintaxe WITH SCHEMA EVOLUTION para SQL INSERT
- SPARK-55065 Evite fazer duas chamadas de API JDBC
- SPARK-55033 Corrigir stringArgs nos comandos de escrita do DSv2
- SPARK-55041 Limpar alguns componentes privados não utilizados do módulo principal
- SPARK-55338 Centralizar a lógica de descompressão de pedidos do Spark Connect no interceptor gRPC
-
SPARK-55825 Renomear
_LEGACY_ERROR_TEMP_1309paraPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Valide que eventTime em withWatermark é uma coluna de nível superior
- SPARK-55802 Corrigir o excesso de inteiros ao calcular bytes lotados de Arrow
- SPARK-55694 Restrições de bloco em CTAS/RTAS ao nível do analisador
- SPARK-55843 Lida com a unidade dos dtypes datetime64 e timedelta64
-
SPARK-55824 Renomear
_LEGACY_ERROR_TEMP_1034paraWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Refactor ExpandExec para ser mais sucinto
- SPARK-55341 Adicionar flag de nível de armazenamento para relações locais em cache
- SPARK-54599 Reverter "[SC-219008][PYTHON] Refatorar PythonException para que suporte a classe de erro com sqlstate"
- SPARK-46167 Adicionar implementação do eixo ao DataFrame.rank
- SPARK-54599 Refatorar o PythonException para que possa tomar errorClass com sqlstate
- SPARK-55529 Reaplicar [ES-1721989][SC-220716][PYTHON] Restaurar a fusão em lote ao nível da seta para applyInPandas sem iterador
-
SPARK-55794 Sempre usar alias
OuterReferences - SPARK-55583 Validar os tipos de esquema Arrow na fonte de dados Python
- SPARK-37711 Reduzir os pandas descrevem o número de empregos de O(N) para O(1)
- SPARK-46168 Argumento do eixo de adição para idxmax
- SPARK-46162 Implementar "nunique" com o eixo=1
- SPARK-55552 Adicionar suporte para VariantType em ColumnarBatchRow.copy() e MutableColumnarRow
-
SPARK-55647 Corrigir
ConstantPropagationa substituição incorreta de atributos por colações não binárias-estáveis - SPARK-55747 Corrigir NPE ao aceder a elementos de um array que é nulo
-
SPARK-55757 Melhorar
spark.task.cpusa validação - SPARK-55699 Leitura inconsistente do LowLatencyClock quando usado em conjunto com o ManualClock
- SPARK-55702 Suportar predicado de filtro em funções de agregação de janelas
- SPARK-55510 Corrigir o método deleteRange na loja de estado do RocksDB para chamar o changelogWriter.
-
SPARK-55739 Otimizar
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndianutilizandoPlatform.copyMemoryem plataformas little-endian - SPARK-55730 Não colocar minúsculas no fuso horário
- SPARK-55701 ES-1694761[SS] Corrigir condição de corrida no CompactibleFileStreamLog.allFiles
- SPARK-55462 Reverter "[SC-221123][PYTHON] Suporte a VariantType em converter_numpy"
- SPARK-55144 Introduzir nova versão do formato de estado para junções stream-stream com melhor desempenho
- SPARK-55606 Implementação do lado do servidor da API GetStatus
- SPARK-55462 Suporte VariantType em convert_numpy
- SPARK-55600 Corrigir pandas para seta perde contagem de linhas quando o esquema tem 0 colunas no clássico
- SPARK-55700 Corrigir a gestão de chaves inteiras em Séries com índices não inteiros
- SPARK-55349 Consolidar utilitários de conversão pandas-para-Arrow em serializadores
- SPARK-55681 Corrigir a igualdade do tipo de dados singleton após desserialização (nova tentativa)
- SPARK-55681 Reverter "[SC-221427][SC-214079][SQL] Corrigir a igualdade de DataType singleton após desserialização"
- SPARK-55681 Corrigir a igualdade do DataType singleton após desserialização
- SPARK-55674 Otimizar a conversão de tabelas de 0 colunas no Spark Connect
- SPARK-55323 Reaplicar "[SC-218885][PYTHON] Mover metadados UDF para o EvalConf para simplificar o protocolo de trabalhador"
- SPARK-55322 Reaplicar [SC-221062][SQL] Sobrecarga MaxBy e MinBy com K Elementos
- SPARK-55323 Reverter "[SC-218885][PYTHON] Mover metadados UDF para o EvalConf para simplificar o protocolo de trabalho"
- SPARK-55615 Mover a importação do SparkContext para a ramificação de classe
- SPARK-55323 Transferir metadados UDF para EvalConf para simplificar o protocolo trabalhador
-
SPARK-55648 Lidar com um erro
groupby(axis)inesperado de argumento de palavra-chave com pandas 3 -
SPARK-55647 Reverter "[SC-221274][SQL] Corrigir
ConstantPropagationa substituição incorreta de atributos por colações que não são estáveis em termos binários" - SPARK-55646 Refatorei SQLExecution.withThreadLocalCaptured para separar a captura local de thread da execução
- SPARK-54854 Adicionar um QueryId UUIDv7 aos Eventos SQLExecution
- SPARK-55619 Corrigir métricas personalizadas no caso de partições coalescidas
-
SPARK-55647 Corrigir
ConstantPropagationa substituição incorreta de atributos por colações não binárias-estáveis -
SPARK-55322 Desfazer "[SC-221062][SQL]
MaxByeMinBySobrecarga com K Elementos" - SPARK-54740 Iniciar o faulthandler mais cedo no modo daemon
- SPARK-55493 [SS] Não faça mkdirs no diretório de estado do checkpoint em streaming no StateDataSource
-
SPARK-55322
MaxByeMinBySobrecarga com K Elementos -
SPARK-55625 Corrigir o StringOps para que
stro dtype funcione corretamente - SPARK-55161 Reaplicar "[SC-218867][PYTHON] Suporte a perfiladores na fonte de dados em Python"
- SPARK-55505 Corrigir o NPE ao ler EXECUTION_ROOT_ID_KEY em cenários concorrentes
- SPARK-55111 Reverificação da deteção de reparticionamento inacabado ao reiniciar a consulta
- SPARK-55593 Unificar o estado de agregação para vector_avg/vector_sum
-
SPARK-55500 Corrigir o ciclo do analisador entre
ApplyDefaultCollation,ExtractWindowExpressionseCollationTypeCasts - SPARK-55494 Introduzir iterator/prefixScan com múltiplos valores na API StateStore
- SPARK-55561 Adicionar tentativas de repetição para todos os métodos do cliente admin Kafka
- SPARK-55296 Suporte do modo CoW com pandas 3
- SPARK-55479 Corrigir problemas de estilo no SparkShreddingUtils
- SPARK-55372 Correção SHOW CREATE TABLE para tabelas / vistas com colação padrão
-
SPARK-55333 Habilitar
DateTypeeTimeTypeemconvert_numpy - SPARK-55129 Introduzir novos codificadores de chave para carimbo temporal como uma primeira classe (UnsafeRow)
- SPARK-46163 Parâmetros filter_func e erros em DataFrame.update
- SPARK-55372 Reverter "[SC-220571][SQL] Correção SHOW CREATE TABLE para tabelas ou vistas com ordenação de caracteres por defeito"
- SPARK-55480 Remover todas as "noqa" não usadas para ruff
- SPARK-55471 Adicionar suporte a otimizadores para o SequentialStreamingUnion
- SPARK-55584 Produzir melhor erro na subconsulta escalar para EXEC IMMEDIATE
- SPARK-55161 Reverter "[SC-218867][PYTHON] Suporte a perfiladores na fonte de dados do Python"
-
SPARK-55506 Passar esquema de entrada explícito para
to_pandasemCogroupPandasUDFSerializer -
SPARK-55586 Adicionar
jdbc.pyExemplo - SPARK-55161 Suporte para ferramentas de análise de desempenho na fonte de dados Python
- SPARK-55529 Revertir "[SC-220716][PYTHON] Restaurar a fusão em lote ao nível da seta para applyInPandas não-iterador"
-
SPARK-55385 Mitigar a recomputação em
zipWithIndex - SPARK-55529 Restaurar a fusão em lote ao nível de Arrow para aplicarApplyInPandas que não utiliza iteradores
- SPARK-55389 Consolidar a lógica do wrapper, do mapper e do serializador
- SPARK-55406 Reimplementar o pool de threads para ExecutePlanResponseReattachableIterator
-
SPARK-55372 Correção
SHOW CREATE TABLEpara tabelas / vistas com colação padrão - SPARK-55367 Utilizar o venv para executar os testes do pip
- SPARK-55355 Atualize a versão do mypy para a mais recente
- SPARK-55460 Remover o E203 da lista de ignorados do ruff
- SPARK-55541 Geometria e Geografia de Suporte em conversores do tipo catalisador
- SPARK-55449 Ativar a análise e escrita WKB para Geografia
- SPARK-55339 Implementar suporte para gerador WKT para objetos Geo
- SPARK-54122 Implementar TwsTester no Scala
- SPARK-54805 Implementar o TwsTester no PySpark
- SPARK-55256 Reaplicar "[SC-218596][SQL] Suporte IGNORE NULLS / RESPECT NULLS para array_agg e collect_list"
-
SPARK-55156 Lidar com
include_groupsparagroupby.apply - SPARK-55401 Adicionar lógica de tentativa e gestão de tempo limite à transferência de instalação do pyspark
- SPARK-55229 Implementar DataFrame.zipWithIndex no PySpark
- SPARK-55462 Suportar o UserDefinedType em convert_numpy
- SPARK-55483 Corrigir NPE no PivotFirst quando a coluna pivot é um tipo não atómico com valores nulos
-
SPARK-55490 Fazer com que o
groupby(as_index=False)inclua uma forma de agrupamento que não esteja presente no DataFrame ao usar pandas 3 - SPARK-55473 Substituir itertools.tee por itertools.chain em applyInPandasWithState
- SPARK-55404 Sempre lançar KeyboardInterrupt do handler SIGINT
- SPARK-55407 Substitua logger.warn por logger.warning
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC,baixe JDBC).
Ambiente do sistema
- Sistema operativo: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Escala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | AIOHTTP | 3.11.10 | aiosignal | 1.2.0 |
| documento anotado | 0.0.4 | tipos com anotações | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-vinculações | 21.2.0 | arro3-core | 0.6.5 |
| seta | 1.3.0 | AstTokens | 3.0.0 | astunparse | 1.6.3 |
| Async-LRU | 2.0.4 | Atributos | 24.3.0 | Comando automático | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Azure Storage Blob | 12.28.0 |
| Armazenamento de Ficheiros Azure Data Lake | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| Beautiful Soup 4 | 4.12.3 | preto | 24.10.0 | lixívia | 6.2.0 |
| pisca | 1.7.0 | boto3 | 1.40.45 | Botocore | 1.40.45 |
| Ferramentas de cache | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| Chardet | 4.0.0 | Normalizador de Charset | 3.3.2 | clicar | 8.1.8 |
| Cloudpickle | 3.0.0 | Comunicação | 0.2.1 | contorno | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| Databricks-Agentes | 1.9.1 | Databricks-SDK | 0.67.0 | DataClasses-JSON | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| Distlib | 0.3.9 | docstring-para-markdown | 0.11 | executar | 1.2.0 |
| facetas-visão geral | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| bloqueio de arquivo | 3.17.0 | Fonttools | 4.55.3 | FQDN (Nome de Domínio Completo) | 1.5.1 |
| Frozenlist | 1.5.0 | fsspec | 2023.5.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | Google-Auth (Autenticação) | 2.47.0 |
| Google Cloud Core | 2.5.0 | google-armazenamento-em-nuvem | 3.7.0 | Google-CRC32C | 1.8.0 |
| google-media-reutilizável | 2.8.0 | googleapis-common-protos | 1.65.0 | Grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | HF-XET | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| modificar | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| Ipykernel | 6.29.5 | IPython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduração | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| Jiter | 0.12.0 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| JSON5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-especificações | 2023.7.1 | Jupyter-Eventos | 0.12.0 |
| Jupyter-LSP | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_servidor | 2.15.0 | jupyter_server_terminals | 0.5.3 | Jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-núcleo | 1.2.6 | langchain-openai | 1.1.6 |
| Langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | Espuma | 3.26.2 | Matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow-skinny | 3.8.1 | MMH3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL | 1.34.0 | MSAL-extensões | 1.3.1 |
| multidict | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | bloco de notas | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | OAuthlib | 3.2.2 | OpenAI | 2.14.0 |
| OpenTelemetry API | 1.39.1 | OpenTelemetry-Proto | 1.39.1 | OpenTelemetry SDK | 1.39.1 |
| Convenções Semânticas de OpenTelemetry | 0.60b1 | Orjson | 3.11.5 | sobrescrições | 7.4.0 |
| embalagem | 24,2 | pandas | 2.2.3 | PandocFilters | 1.5.0 |
| Parso | 0.8.4 | PathSpec | 0.10.3 | vítima | 1.0.1 |
| pexpect | 4.8.0 | almofada | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | enredo | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | kit de ferramentas de prompt | 3.0.43 | propcache | 0.3.1 |
| Proto-Plus | 1.27.0 | Protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
| pyccolo | 0.0.71 | Pycparser | 2.21 | Pidântico | 2.10.6 |
| pydantic_core | 2.27.2 | Pyflakes | 3.2.0 | Pigmentos | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | Pyright | 1.1.394 |
| Piroaring | 1.0.3 | Pytest | 8.3.5 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.12.2 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.2 | Pyzmq | 26.2.0 | referenciação | 0.30.2 |
| regex | 2024.11.6 | pedidos | 2.32.3 | pedidos-cinto de ferramentas | 1.0.0 |
| rfc3339-verificador | 0.1.4 | rfc3986-validador | 0.1.1 | rico | 13.9.4 |
| corda | 1.13.0 | RPDS-PY | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.6.1 | SciPy | 1.15.3 |
| nascido no mar | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 78.1.1 |
| Shellingham | 1.5.4 | seis | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | contentores classificados | 2.4.0 | Soupsieve | 2,5 |
| SQLPARSE | 0.5.5 | ssh-import-id | 5.11 | dados de pilha | 0.6.3 |
| Starlette | 0.50.0 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| concluído | 0.17.1 | ThreadPoolCtl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | Tokenizadores | 0.22.2 |
| Tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | Typer-Slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspeção de digitação | 0.9.0 | typing_extensions (extensões de digitação) | 4.12.2 |
| tzdata | 2024.1 | Ujson | 5.10.0 | Atualizações não supervisionadas | 0.1 |
| uri-modelo | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webcolors | 25.10.0 | codificações da web | 0.5.1 |
| Websocket-cliente | 1.8.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.45.1 |
| sempre que | 0.7.3 | widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 |
| Yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot Posit Gestor de Pacotes CRAN em 20 de novembro de 2025.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 22.0.0 | AskPass | 1.2.1 | asserir que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | pouco | 4.6.0 | bit-64 | 4.6.0-1 |
| Bitops | 1.0-9 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.10 |
| bslib | 0.9.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | crono | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| relógio | 0.7.3 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| marca comum | 2.0.0 | compilador | 4.5.1 | Configurações | 0.3.2 |
| conflituoso | 1.2.0 | cpp11 | 0.5.2 | lápis de cor | 1.5.3 |
| credenciais | 2.0.3 | encaracolar | 7.0.0 | tabela de dados | 1.17.8 |
| conjuntos de dados | 4.5.1 | DBI | 1.2.3 | DBPlyr | 2.5.1 |
| descrição | 1.4.3 | DevTools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | resumo | 0.6.39 | Iluminação reduzida | 0.4.5 |
| DPLYR | 1.1.4 | DTPlyr | 1.3.2 | e1071 | 1.7-16 |
| reticências | 0.3.2 | avaliar | 1.0.5 | Fansi | 1.0.7 |
| cores | 2.1.2 | mapa rápido | 1.2.0 | fontawesome | 0.5.3 |
| forçados | 1.0.1 | foreach | 1.5.2 | estrangeiro/a | 0.8 a 86 |
| FS | 1.6.6 | Futuro | 1.68.0 | futuro.apply | 1.20.0 |
| gargarejo | 1.6.0 | genérico | 0.1.4 | Gert | 2.2.0 |
| ggplot2 | 4.0.1 | GH | 1.5.0 | Git2R | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | Variáveis globais | 0.18.0 |
| cola | 1.8.0 | GoogleDrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | gráficos | 4.5.1 | grDispositivos | 4.5.1 |
| grelha | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | tabela g | 0.3.6 | capacete de proteção | 1.4.2 |
| Refúgio | 2.5.5 | mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.4 |
| htmltools | 0.5.8.1 | htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.16 |
| HTTR | 1.4.7 | httr2 | 1.2.1 | IDs | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9 a 15 | Banda isobárica | 0.2.7 |
| iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| JuicyJuice | 0.1.0 | KernSmooth | 2.23-22 | Knitr | 1,50 |
| etiquetagem | 0.4.3 | mais tarde | 1.4.4 | treliça | 0.22-5 |
| lave | 1.8.2 | ciclo de vida | 1.0.4 | ouvir | 0.10.0 |
| litedown | 0.8 | lubridato | 1.9.4 | Magrittr | 2.0.4 |
| Marcação | 2.0 | MASSA | 7.3-60.0.1 | Matriz | 1.6-5 |
| memorização | 2.0.1 | Metodologia | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | miniUI | 0.1.2 | Mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| NNET | 7.3-19 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.3.4 |
| Otel | 0.2.0 | paralelo | 4.5.1 | Paralelamente | 1.45.1 |
| pilar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| Plyr | 1.8.9 | elogios | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | Progressos | 1.2.3 | progressr | 0.18.0 |
| promessas | 1.5.0 | prototipo | 1.0.0 | proxy | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl | 1.4.5 | receitas | 1.3.1 |
| nova partida | 2.0.0 | revanche2 | 2.1.2 | Dispositivos remotos | 2.5.0 |
| Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1,8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| Rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| escalas | 1.4.0 | seletor | 0.4-2 | Informação da sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.11.1 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| espacial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.5.1 | estatísticas4 | 4.5.1 |
| string | 1.8.7 | stringr | 1.6.0 | Sobrevivência | 3.5-8 |
| Charme | 5.17.14.1 | Sistema | 3.4.3 | fontes do sistema | 1.3.1 |
| tcltk (uma linguagem de programação) | 4.5.1 | testthat | 3.3.0 | formatação de texto | 1.0.4 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| Tidyverse | 2.0.0 | mudança de hora | 0.3.0 | data e hora | 4051.111 |
| Tinytex | 0.58 | Ferramentas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.2.1 | UTF8 | 1.2.6 |
| utilitários | 4.5.1 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vruum | 1.6.6 |
| Waldo | 0.6.2 | vibrissas | 0.4.1 | murchar | 3.0.2 |
| xfun | 0.54 | XML2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | Zeallot | 0.2.0 |
| zip (formato de arquivo) | 2.3.3 |
Instalei as bibliotecas Java e Scala (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.7-6 |
| com.github.virtuald | Curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-comum-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | Anotações de auto-valor | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | Falha no acesso | 1.0.3 |
| com.google.guava | Goiaba | 33.4.8-JRE |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-anotações | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre11 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| IO.Delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | métricas e anotação | 4.2.37 |
| io.dropwizard.metrics | métricas principais | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Métricas JMX | 4.2.37 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.37 |
| io.dropwizard.metrics | métricas do JVM | 4.2.37 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7. Final |
| io.netty | netty-buffer | 4.2.7. Final |
| io.netty | netty-codec | 4.2.7. Final |
| io.netty | netty-codec-base | 4.2.7. Final |
| io.netty | netty-codec-classes-quic | 4.2.7. Final |
| io.netty | nety-codec-compressão | 4.2.7. Final |
| io.netty | netty-codec-http | 4.2.7. Final |
| io.netty | netty-codec-http2 | 4.2.7. Final |
| io.netty | netty-codec-http3 | 4.2.7. Final |
| io.netty | Netty-codec-marshalling | 4.2.7. Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7. Final |
| io.netty | netty-codec-socks | 4.2.7. Final |
| io.netty | Netty Comum | 4.2.7. Final |
| io.netty | Netty Handler | 4.2.7. Final |
| io.netty | netty-handler-proxy | 4.2.7. Final |
| io.netty | netty-resolver (resolução do Netty) | 4.2.7. Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | Netty-Transport | 4.2.7. Final |
| io.netty | netty-transport-classes-epoll | 4.2.7. Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7. Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7. Final |
| io.netty | netty-transport-native-epoll | 4.2.7. Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.2.7. Final |
| io.opencensus | OpenCensus-API | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometeu | simpleclient | 0.16.1-databricks |
| io.prometeu | simpleclient_comum | 0.16.1-databricks |
| io.prometeu | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometeu | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel_agente | 0.16.1-databricks |
| io.prometheus.jmx | recoletor | 0.18.0 |
| jacarta.anotação | jakarta.annotation.api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1.5 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | compressão de flechas | 18.3.0 |
| org.apache.arrow | formato de flecha | 18.3.0 |
| org.apache.arrow | núcleo de memória Arrow | 18.3.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.3.0 |
| org.apache.arrow | "patch-do-buffer-da-memória-arrow-netty" | 18.3.0 |
| org.apache.arrow | vetor gráfico de seta | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | AVRO-IPC | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | colecções-commons4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.14.0 |
| org.apache.curador | curador-cliente | 5.9.0 |
| org.apache.curador | Framework de Curadoria | 5.9.0 |
| org.apache.curador | curador de receitas | 5.9.0 |
| org.apache.datasketches | Datasketches-Java | 6.2.0 |
| org.apache.datasketches | datasketches-memória | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.2 |
| org.apache.hive | colmeia-abelha | 2.3.10 |
| org.apache.hive | Hive-CLI | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-cliente | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | colmeias-calços | 2.3.10 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-protobuf sombreado |
| org.apache.orc | formato ORC | 1.1.1-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 2.2.0-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 2.2.0 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-completo | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-sombreado | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.4 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.4 |
| org.checkerframework | verificador de qualidade | 3.43.0 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | Jetty-Cliente | 10.0.26 |
| org.eclipse.jetty | Jetty-HTTP | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | Jetty-Proxy | 10.0.26 |
| org.eclipse.jetty | Segurança do Jetty | 10.0.26 |
| org.eclipse.jetty | servidor jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | Jetty-util | 10.0.26 |
| org.eclipse.jetty | Aplicação web Jetty | 10.0.26 |
| org.eclipse.jetty | Jetty-XML | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Jersey comum | 2.41 |
| org.glassfish.jersey.core | servidor Jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | Jline | 3.27.1-JDK8 |
| org.joda | joda-converter | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | JSON4S-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2,13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | JTS-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | Scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.16 |
| org.slf4j | jul-para-slf4j | 2.0.16 |
| org.slf4j | SLF4J-API | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |