Partilhar via


Notas de lançamento do Databricks SQL 2026

As seguintes funcionalidades e melhorias do Databricks SQL foram lançadas em 2026.

Março de 2026

A versão 2026.10 do Databricks SQL está agora disponível em Pré-visualização

26 de março de 2026

A versão 2026.10 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.

Erros na métrica de observação já não falham consultas

Erros durante a recolha de métricas de observação já não causam falhas na execução da consulta. Anteriormente, erros em OBSERVE cláusulas (como divisão por zero) podiam bloquear ou paralisar a consulta por completo. Agora, a consulta é concluída com sucesso e o erro surge quando se chama observation.get.

Cláusula FILTER para funções agregadas da MEASURE

Agora, as funções agregadas MEASURE suportam cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.

Gravações otimizadas para operações CRTAS do Unity Catalog

CRIAR OU SUBSTITUIR TABLE As operações AS SELECT (CRTAS) em tabelas particionadas do Unity Catalog aplicam agora escritas otimizadas por defeito, produzindo menos ficheiros maiores. Para desativar, definir spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled para false.

Os valores das partições de carimbo temporal utilizam o fuso horário da sessão

Os valores das partições de carimbo temporal usam agora o fuso horário da sessão do SQL Warehouse. Se tiver partições com carimbo temporal escritas antes da versão 2025.40 do Databricks SQL, execute SHOW PARTITIONS para verificar os metadados da sua partição antes de escrever novos dados.

Palavra-chave reservada DESCRIBE FLOW

O DESCRIBE FLOW comando está agora disponível. Se tiver uma tabela com nome flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.

Operações de conjunto booleano em SpatialSQL

ST_Difference, ST_Intersection, e ST_Union usar uma nova implementação com as seguintes melhorias:

  • Geometrias de entrada válidas produzem sempre um resultado e deixam de gerar erros. Entradas inválidas não geram erros, mas podem não produzir resultados válidos.
  • Desempenho aproximadamente duas vezes superior.
  • Os resultados podem diferir após a 15.ª casa decimal para interseções entre segmentos de linha devido a fórmulas e ordem de operações diferentes.
  • Os resultados são normalizados para resultados consistentes e comparáveis:
    • Os pontos são ordenados por valores de coordenadas.
    • As linhas são construídas a partir dos caminhos mais longos possíveis.
    • Os anéis de polígonos são rodados para que o primeiro ponto tenha os valores de coordenadas mais pequenos.
  • Esta normalização aplica-se em todos os casos, exceto quando se chama ST_Difference com duas geometrias não sobrepostas, onde a primeira geometria é devolvida sem alterações.

Tipos de exceção para SQLSTATE

Os tipos de exceção agora suportam SQLSTATE. Se o teu código analisa exceções por correspondência de strings ou apanha tipos específicos de exceções, atualiza a lógica de gestão de erros.

Suporte ao tipo de dados DATETIMEOFFSET para Microsoft Azure Synapse

O DATETIMEOFFSET tipo de dado está agora disponível para ligações Microsoft Azure Synapse.

Comentários nas tabelas do BigQuery no Google

As descrições das tabelas do Google BigQuery são resolvidas e expostas como comentários em tabelas.

Evolução do esquema com INSERT declarações

Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. A cláusula é suportada para INSERT INTO, INSERT OVERWRITE, e INSERT INTO ... REPLACE formas. Por exemplo:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

O esquema da tabela Delta Lake alvo é atualizado para acomodar colunas adicionais ou tipos alargados a partir da fonte. Para detalhes, veja evolução do esquema e INSERT sintaxe das sentenças.

Valores de struct NULL preservados em INSERT operações

INSERT Operações com Evolução de Esquema ou Cast Implícito agora preservam NULL os valores de 'struct' quando as tabelas de origem e destino têm ordens de campo de 'struct' diferentes.

parse_timestamp Função SQL

A função parse_timestamp SQL analisa cadeias de carimbo temporal usando múltiplos padrões e executa-se no motor Photon para melhorar o desempenho ao analisar carimbos de tempo em múltiplos formatos. Consulte Padrões de data-hora para informações sobre a formatação dos padrões de data-hora.

max_by e min_by com limite opcional

As funções agregadas max_by e min_by agora aceitam um terceiro argumento limit opcional (até 100.000). Quando fornecidas, as funções retornam um array de até limit valores correspondentes aos maiores (ou menores) valores da expressão de ordenação, simplificando consultas top-K e bottom-K sem funções janela ou CTEs.

Agregado vetorial e funções escalares

As novas funções SQL operam em ARRAY<FLOAT> vetores para incorporações e tarefas de similaridade.

Funções agregadas:

  • vector_avg: Devolve a média elemento a elemento dos vetores num grupo.
  • vector_sum: Devolve a soma elemento a elemento dos vetores num grupo.

Funções escalares:

Ver Funções integradas.

Suporte de cursor SQL em instruções compostas

Script SQL Agora, instruções compostas suportam o processamento de cursores. Use o DECLARE CURSOR para definir um cursor, depois a instrução OPEN, a instrução FETCH e a instrução CLOSE para executar a consulta e consumir linhas uma de cada vez. Os cursores podem usar marcadores de parâmetros e manipuladores de condições, como NOT FOUND para processamento linha a linha.

Funções aproximadas de esboço top-k

Novas funções permitem construir e combinar esboços top-K aproximados para agregação top-K distribuída:

Para mais informações, consulte approx_top_k função agregada e funções incorporadas.

Funções de esboço de tuplas

Novas funções agregadas e escalares para esboços de tuplas suportam contagem e agregação distintas sobre pares resumo de chaves.

Funções agregadas:

Funções escalares:

Ver Funções integradas.

Dependências personalizadas para UDTFs Python do Unity Catalog

As funções de tabela definidas pelo utilizador (UDTFs) do Unity Catalog Python podem agora usar dependências personalizadas para bibliotecas externas, pelo que pode usar pacotes para além do que está disponível no ambiente SQL warehouse predefinido. Consulte Estender UDFs usando dependências personalizadas.

Novas funções geoespaciais

As seguintes funções geoespaciais estão agora disponíveis:

  • st_estimatesrid função: Estima o melhor identificador de referência espacial projetado (SRID) para uma geometria de entrada.
  • st_force2d função: Converte uma geografia ou geometria para a sua representação 2D.
  • st_nrings função: Conta o número total de anéis num polígono ou multipolígono, incluindo anéis exteriores e interiores.
  • st_numpoints função: Conta o número de pontos não vazios numa geografia ou geometria.

Suporte Photon para funções geoespaciais

As seguintes funções geoespaciais funcionam agora no motor Photon para um desempenho mais rápido:

Fevereiro de 2026

Databricks SQL versão 2025.40 está a ser implementada em Current

23 de fevereiro de 2026

A versão 2025.40 do Databricks SQL está a ser implementada no canal Current. Veja as reportagens em 2025.40.

A versão 2025.40 do Databricks SQL está agora disponível em Pré-visualização

11 de fevereiro de 2026

A versão 2025.40 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.

SQL scripting está geralmente disponível

SQL scripting está agora geralmente disponível. Escreva lógica procedural com SQL, incluindo instruções condicionais, ciclos, variáveis locais e tratamento de exceções.

Marcadores de parâmetros agora suportados em mais contextos SQL

Agora pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) em qualquer lugar onde seja permitido um valor literal do tipo apropriado. Isto inclui instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de colunas como DECIMAL(:p, :s), e comentários como COMMENT ON t IS :comment. Isto permite-lhe parametrizar uma grande variedade de instruções SQL sem expor o seu código a ataques de injeção SQL. Ver Marcadores de parâmetros.

IDENTIFIER cláusula expandida para mais contextos SQL

A cláusula IDENTIFIER, que converte strings em nomes de objetos SQL, é agora suportada em quase todos os contextos em que um identificador é permitido. Combinado com suporte expandido para combinação de marcadores de parâmetros e cadeias literais, pode parametrizar qualquer coisa, desde aliases de colunas (AS IDENTIFIER(:name)) até definições de colunas (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.

A coalescência literal das cordas é suportada em todo o lado

Literais sequenciais de cadeia como 'Hello' ' World' agora fundem-se em 'Hello World' em qualquer contexto onde os literais de cadeia sejam permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.

Nova função BITMAP_AND_AGG

Uma nova função BITMAP_AND_AGG está agora disponível para complementar a biblioteca de BITMAP funções existente.

Novas funções Theta Sketch para contagens aproximadas distintas

Uma nova biblioteca de funções para operações aproximadas de contagem e conjunto distintas usando o Datasketches Theta Sketches está agora disponível:

Novas funções KLL Sketch para quantiles aproximados

Uma nova biblioteca de funções para construir KLL Sketches para computação aproximada de quantis está agora disponível.

Pode combinar múltiplos esboços KLL num contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.

Funções de janela SQL em vistas métricas

Agora pode usar funções SQL de janela em vistas métricas para calcular totais acumulados, classificações e outros cálculos com base em janelas.

Novas funções geoespaciais

As seguintes novas funções geoespaciais estão agora disponíveis:

Suporte de entrada EWKT para funções de geometria e geografia existentes

As seguintes funções agora aceitam Extended Well-Known Text (EWKT) como entrada:

Desempenho melhorado para consultas repetidas sobre tabelas com filtros de linhas e máscaras de coluna

Consultas elegíveis repetidas sobre tabelas com filtros de linhas e máscaras de colunas beneficiam agora de uma melhoria na cache dos resultados das consultas, resultando em tempos de execução mais rápidos.

Melhoria do desempenho da função geoespacial

O desempenho da junção espacial é melhorado com suporte para junção espacial embaralhada. As seguintes funções ST têm agora implementações Photon:

FSCK REPAIR TABLE inclui reparação de metadados por padrão

FSCK REPAIR TABLE Agora inclui um passo inicial de reparação de metadados antes de verificar ficheiros de dados em falta, permitindo que funcione em tabelas com checkpoints corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída é agora anulável para suportar novos tipos de questão em que o caminho do ficheiro de dados não se aplica.

DESCRIBE TABLE A saída inclui a coluna de metadados

A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma metadata coluna para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de visualização, formato e sinónimos) definidos na tabela como uma cadeia JSON.

Estruturas NULL preservadas em MERGE, UPDATE, e operações de escrita em streaming

As estruturas NULL são agora preservadas como NULL em Delta Lake MERGE, UPDATE, e operações de escrita em streaming que incluem casts de tipos de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com todos os campos definidos como NULL.

Colunas de partição materializadas nos ficheiros Parquet

Tabelas Delta Lake particionadas agora materializam colunas de partição em ficheiros de dados Parquet recém-escritos. Anteriormente, os valores das partições eram armazenados apenas nos metadados do registo de transações do Delta Lake. Cargas de trabalho que leem diretamente ficheiros Parquet, escritos pela Delta Lake, veem colunas de partição adicionais em ficheiros recém-escritos.

Os valores das partições de carimbo temporal respeitam o fuso horário da sessão

Os valores das partições de timestamp são agora ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eram convertidos incorretamente para UTC usando o fuso horário da JVM.

Restrições de viagem no tempo atualizadas

O Azure Databricks bloqueia agora consultas de viagem no tempo para além do deletedFileRetentionDuration limiar para todas as tabelas. O VACUUM comando ignora o argumento da duração de retenção, exceto quando o valor é 0 horas. Não pode definir deletedFileRetentionDuration maior que logRetentionDuration.

SHOW TABLES DROPPED Respeita LIMIT a cláusula

SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.

Janeiro de 2026