Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
As seguintes funcionalidades e melhorias do Databricks SQL foram lançadas em 2026.
Março de 2026
A versão 2026.10 do Databricks SQL está agora disponível em Pré-visualização
26 de março de 2026
A versão 2026.10 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
Erros na métrica de observação já não falham consultas
Erros durante a recolha de métricas de observação já não causam falhas na execução da consulta. Anteriormente, erros em OBSERVE cláusulas (como divisão por zero) podiam bloquear ou paralisar a consulta por completo. Agora, a consulta é concluída com sucesso e o erro surge quando se chama observation.get.
Cláusula FILTER para funções agregadas da MEASURE
Agora, as funções agregadas MEASURE suportam cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.
Gravações otimizadas para operações CRTAS do Unity Catalog
CRIAR OU SUBSTITUIR TABLE As operações AS SELECT (CRTAS) em tabelas particionadas do Unity Catalog aplicam agora escritas otimizadas por defeito, produzindo menos ficheiros maiores. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.
Os valores das partições de carimbo temporal utilizam o fuso horário da sessão
Os valores das partições de carimbo temporal usam agora o fuso horário da sessão do SQL Warehouse. Se tiver partições com carimbo temporal escritas antes da versão 2025.40 do Databricks SQL, execute SHOW PARTITIONS para verificar os metadados da sua partição antes de escrever novos dados.
Palavra-chave reservada DESCRIBE FLOW
O DESCRIBE FLOW comando está agora disponível. Se tiver uma tabela com nome flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.
Operações de conjunto booleano em SpatialSQL
ST_Difference, ST_Intersection, e ST_Union usar uma nova implementação com as seguintes melhorias:
- Geometrias de entrada válidas produzem sempre um resultado e deixam de gerar erros. Entradas inválidas não geram erros, mas podem não produzir resultados válidos.
- Desempenho aproximadamente duas vezes superior.
- Os resultados podem diferir após a 15.ª casa decimal para interseções entre segmentos de linha devido a fórmulas e ordem de operações diferentes.
- Os resultados são normalizados para resultados consistentes e comparáveis:
- Os pontos são ordenados por valores de coordenadas.
- As linhas são construídas a partir dos caminhos mais longos possíveis.
- Os anéis de polígonos são rodados para que o primeiro ponto tenha os valores de coordenadas mais pequenos.
- Esta normalização aplica-se em todos os casos, exceto quando se chama
ST_Differencecom duas geometrias não sobrepostas, onde a primeira geometria é devolvida sem alterações.
Tipos de exceção para SQLSTATE
Os tipos de exceção agora suportam SQLSTATE. Se o teu código analisa exceções por correspondência de strings ou apanha tipos específicos de exceções, atualiza a lógica de gestão de erros.
Suporte ao tipo de dados DATETIMEOFFSET para Microsoft Azure Synapse
O DATETIMEOFFSET tipo de dado está agora disponível para ligações Microsoft Azure Synapse.
Comentários nas tabelas do BigQuery no Google
As descrições das tabelas do Google BigQuery são resolvidas e expostas como comentários em tabelas.
Evolução do esquema com INSERT declarações
Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. A cláusula é suportada para INSERT INTO, INSERT OVERWRITE, e INSERT INTO ... REPLACE formas. Por exemplo:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
O esquema da tabela Delta Lake alvo é atualizado para acomodar colunas adicionais ou tipos alargados a partir da fonte. Para detalhes, veja evolução do esquema e INSERT sintaxe das sentenças.
Valores de struct NULL preservados em INSERT operações
INSERT Operações com Evolução de Esquema ou Cast Implícito agora preservam NULL os valores de 'struct' quando as tabelas de origem e destino têm ordens de campo de 'struct' diferentes.
parse_timestamp Função SQL
A função parse_timestamp SQL analisa cadeias de carimbo temporal usando múltiplos padrões e executa-se no motor Photon para melhorar o desempenho ao analisar carimbos de tempo em múltiplos formatos. Consulte Padrões de data-hora para informações sobre a formatação dos padrões de data-hora.
max_by e min_by com limite opcional
As funções agregadas max_by e min_by agora aceitam um terceiro argumento limit opcional (até 100.000). Quando fornecidas, as funções retornam um array de até limit valores correspondentes aos maiores (ou menores) valores da expressão de ordenação, simplificando consultas top-K e bottom-K sem funções janela ou CTEs.
Agregado vetorial e funções escalares
As novas funções SQL operam em ARRAY<FLOAT> vetores para incorporações e tarefas de similaridade.
Funções agregadas:
- vector_avg: Devolve a média elemento a elemento dos vetores num grupo.
- vector_sum: Devolve a soma elemento a elemento dos vetores num grupo.
Funções escalares:
- vector_cosine_similarity: Retorna a similaridade de cosseno entre dois vetores.
- vector_inner_product: Devolve o produto escalar de dois vetores.
- vector_l2_distance: Devolve a distância euclidiana (L2) entre dois vetores.
- vector_norm: Devolve a norma Lp de um vetor (1, 2 ou infinito).
- vector_normalize: Devolve um vetor normalizado à unidade de comprimento.
Ver Funções integradas.
Suporte de cursor SQL em instruções compostas
Script SQL Agora, instruções compostas suportam o processamento de cursores. Use o DECLARE CURSOR para definir um cursor, depois a instrução OPEN, a instrução FETCH e a instrução CLOSE para executar a consulta e consumir linhas uma de cada vez. Os cursores podem usar marcadores de parâmetros e manipuladores de condições, como NOT FOUND para processamento linha a linha.
Funções aproximadas de esboço top-k
Novas funções permitem construir e combinar esboços top-K aproximados para agregação top-K distribuída:
- approx_top_k_accumulate: Constrói um esboço por grupo.
- approx_top_k_combine: Funde esboços.
- approx_top_k_estimate: Retorna os K principais itens com contagem estimada.
Para mais informações, consulte approx_top_k função agregada e funções incorporadas.
Funções de esboço de tuplas
Novas funções agregadas e escalares para esboços de tuplas suportam contagem e agregação distintas sobre pares resumo de chaves.
Funções agregadas:
-
tuple_sketch_agg_doublefunção de agregação -
tuple_sketch_agg_integerfunção de agregação -
tuple_union_agg_doublefunção de agregação -
tuple_union_agg_integerfunção de agregação -
tuple_intersection_agg_doublefunção de agregação -
tuple_intersection_agg_integerfunção de agregação
Funções escalares:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
Ver Funções integradas.
Dependências personalizadas para UDTFs Python do Unity Catalog
As funções de tabela definidas pelo utilizador (UDTFs) do Unity Catalog Python podem agora usar dependências personalizadas para bibliotecas externas, pelo que pode usar pacotes para além do que está disponível no ambiente SQL warehouse predefinido. Consulte Estender UDFs usando dependências personalizadas.
Novas funções geoespaciais
As seguintes funções geoespaciais estão agora disponíveis:
-
st_estimatesridfunção: Estima o melhor identificador de referência espacial projetado (SRID) para uma geometria de entrada. -
st_force2dfunção: Converte uma geografia ou geometria para a sua representação 2D. -
st_nringsfunção: Conta o número total de anéis num polígono ou multipolígono, incluindo anéis exteriores e interiores. -
st_numpointsfunção: Conta o número de pontos não vazios numa geografia ou geometria.
Suporte Photon para funções geoespaciais
As seguintes funções geoespaciais funcionam agora no motor Photon para um desempenho mais rápido:
Fevereiro de 2026
Databricks SQL versão 2025.40 está a ser implementada em Current
23 de fevereiro de 2026
A versão 2025.40 do Databricks SQL está a ser implementada no canal Current. Veja as reportagens em 2025.40.
A versão 2025.40 do Databricks SQL está agora disponível em Pré-visualização
11 de fevereiro de 2026
A versão 2025.40 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
SQL scripting está geralmente disponível
SQL scripting está agora geralmente disponível. Escreva lógica procedural com SQL, incluindo instruções condicionais, ciclos, variáveis locais e tratamento de exceções.
Marcadores de parâmetros agora suportados em mais contextos SQL
Agora pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) em qualquer lugar onde seja permitido um valor literal do tipo apropriado. Isto inclui instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de colunas como DECIMAL(:p, :s), e comentários como COMMENT ON t IS :comment. Isto permite-lhe parametrizar uma grande variedade de instruções SQL sem expor o seu código a ataques de injeção SQL.
Ver Marcadores de parâmetros.
IDENTIFIER cláusula expandida para mais contextos SQL
A cláusula IDENTIFIER, que converte strings em nomes de objetos SQL, é agora suportada em quase todos os contextos em que um identificador é permitido. Combinado com suporte expandido para combinação de marcadores de parâmetros e cadeias literais, pode parametrizar qualquer coisa, desde aliases de colunas (AS IDENTIFIER(:name)) até definições de colunas (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.
A coalescência literal das cordas é suportada em todo o lado
Literais sequenciais de cadeia como 'Hello' ' World' agora fundem-se em 'Hello World' em qualquer contexto onde os literais de cadeia sejam permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.
Nova função BITMAP_AND_AGG
Uma nova função BITMAP_AND_AGG está agora disponível para complementar a biblioteca de BITMAP funções existente.
Novas funções Theta Sketch para contagens aproximadas distintas
Uma nova biblioteca de funções para operações aproximadas de contagem e conjunto distintas usando o Datasketches Theta Sketches está agora disponível:
-
theta_sketch_aggfunção de agregação -
theta_union_aggfunção de agregação -
theta_intersection_aggfunção de agregação -
theta_sketch_estimateFunção -
theta_unionFunção -
theta_differenceFunção -
theta_intersectionFunção
Novas funções KLL Sketch para quantiles aproximados
Uma nova biblioteca de funções para construir KLL Sketches para computação aproximada de quantis está agora disponível.
-
kll_sketch_agg_bigintfunção de agregação -
kll_sketch_get_quantile_bigintFunção -
kll_sketch_merge_bigintFunção -
kll_sketch_agg_doublefunção de agregação -
kll_sketch_get_quantile_doubleFunção -
kll_sketch_merge_doubleFunção -
kll_sketch_agg_floatfunção de agregação -
kll_sketch_get_quantile_floatFunção -
kll_sketch_merge_floatFunção -
kll_sketch_get_n_bigintFunção -
kll_sketch_get_rank_bigintFunção -
kll_sketch_to_string_bigintFunção -
kll_sketch_get_n_doubleFunção -
kll_sketch_get_rank_doubleFunção -
kll_sketch_to_string_doubleFunção -
kll_sketch_get_n_floatFunção -
kll_sketch_get_rank_floatFunção -
kll_sketch_to_string_floatFunção
Pode combinar múltiplos esboços KLL num contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.
Funções de janela SQL em vistas métricas
Agora pode usar funções SQL de janela em vistas métricas para calcular totais acumulados, classificações e outros cálculos com base em janelas.
Novas funções geoespaciais
As seguintes novas funções geoespaciais estão agora disponíveis:
-
st_azimuthfunção: Devolve o azimute baseado no norte do primeiro ponto para o segundo em radianos em[0, 2π). -
st_boundaryfunção: Devolve a fronteira da geometria de entrada. -
st_closestpointfunção: Devolve a projeção 2D de um ponto na primeira geometria que está mais próximo da segunda geometria. -
st_geogfromewktfunção: Interpreta uma descrição geográfica em Extended Well-Known Text (EWKT). -
st_geomfromewktfunção: Analisa uma descrição em Texto Well-Known Estendido (EWKT) de uma geometria.
Suporte de entrada EWKT para funções de geometria e geografia existentes
As seguintes funções agora aceitam Extended Well-Known Text (EWKT) como entrada:
Desempenho melhorado para consultas repetidas sobre tabelas com filtros de linhas e máscaras de coluna
Consultas elegíveis repetidas sobre tabelas com filtros de linhas e máscaras de colunas beneficiam agora de uma melhoria na cache dos resultados das consultas, resultando em tempos de execução mais rápidos.
Melhoria do desempenho da função geoespacial
O desempenho da junção espacial é melhorado com suporte para junção espacial embaralhada. As seguintes funções ST têm agora implementações Photon:
FSCK REPAIR TABLE inclui reparação de metadados por padrão
FSCK REPAIR TABLE Agora inclui um passo inicial de reparação de metadados antes de verificar ficheiros de dados em falta, permitindo que funcione em tabelas com checkpoints corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída é agora anulável para suportar novos tipos de questão em que o caminho do ficheiro de dados não se aplica.
DESCRIBE TABLE A saída inclui a coluna de metadados
A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma metadata coluna para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de visualização, formato e sinónimos) definidos na tabela como uma cadeia JSON.
Estruturas NULL preservadas em MERGE, UPDATE, e operações de escrita em streaming
As estruturas NULL são agora preservadas como NULL em Delta Lake MERGE, UPDATE, e operações de escrita em streaming que incluem casts de tipos de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com todos os campos definidos como NULL.
Colunas de partição materializadas nos ficheiros Parquet
Tabelas Delta Lake particionadas agora materializam colunas de partição em ficheiros de dados Parquet recém-escritos. Anteriormente, os valores das partições eram armazenados apenas nos metadados do registo de transações do Delta Lake. Cargas de trabalho que leem diretamente ficheiros Parquet, escritos pela Delta Lake, veem colunas de partição adicionais em ficheiros recém-escritos.
Os valores das partições de carimbo temporal respeitam o fuso horário da sessão
Os valores das partições de timestamp são agora ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eram convertidos incorretamente para UTC usando o fuso horário da JVM.
Restrições de viagem no tempo atualizadas
O Azure Databricks bloqueia agora consultas de viagem no tempo para além do deletedFileRetentionDuration limiar para todas as tabelas. O VACUUM comando ignora o argumento da duração de retenção, exceto quando o valor é 0 horas. Não pode definir deletedFileRetentionDuration maior que logRetentionDuration.
SHOW TABLES DROPPED Respeita LIMIT a cláusula
SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.