Compartilhar via


Notas de versão do Databricks SQL 2026

Os recursos e melhorias do SQL do Databricks a seguir foram lançados em 2026.

Março de 2026

O Databricks SQL versão 2026.10 agora está disponível na versão prévia

26 de março de 2026

O Databricks SQL versão 2026.10 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

Erros de métrica de observação não causam mais falhas em consultas

Erros durante a coleta de métricas de observação não causam mais falhas de execução de consulta. Anteriormente, erros em OBSERVE cláusulas (como divisão por zero) podiam bloquear ou falhar a consulta inteira. Agora, a consulta é concluída com êxito e o erro é gerado quando você chama observation.get.

Cláusula FILTER para funções de agregação MEASURE

As funções de agregação MEASURE agora dão suporte a cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.

Operações de gravações otimizadas para CRTAS do Unity Catalog

CRIAR OU SUBSTITUIR TABLE As operações do AS SELECT (CRTAS) em tabelas particionadas do Catálogo do Unity agora aplicam gravações otimizadas por padrão, produzindo menos arquivos maiores. Para desabilitar, defina spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled como false.

Valores de partição de timestamp usam o fuso horário da sessão

Os valores de partição de carimbo de data/hora agora usam o fuso horário da sessão do SQL Warehouse. Se você tiver partições de carimbo de data/hora gravadas antes do Databricks SQL versão 2025.40, execute SHOW PARTITIONS para verificar os metadados de partição antes de gravar novos dados.

Palavra-chave reservada DESCRIBE FLOW

O DESCRIBE FLOW comando agora está disponível. Se você tiver uma tabela chamada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.

Operações de conjunto booleanas do SpatialSQL

ST_Difference, ST_Intersection, e ST_Union use uma nova implementação com as seguintes melhorias:

  • Geometrias de entrada válidas sempre produzem um resultado e não geram mais erros. Entradas inválidas não geram erros, mas podem não produzir resultados válidos.
  • Desempenho aproximadamente 2x mais rápido.
  • Os resultados podem diferir após o 15º local decimal para interseções de segmento de linha devido a fórmulas e ordem de operações diferentes.
  • Os resultados são normalizados para uma saída consistente e comparável:
    • Os pontos são classificados por valores de coordenadas.
    • As linhas de linha são criadas a partir dos caminhos mais longos possíveis.
    • Os anéis de polígono são girados para que o primeiro ponto tenha os menores valores de coordenadas.
  • Essa normalização se aplica em todos os casos, exceto ao chamar ST_Difference com duas geometrias não sobrepostas, em que a primeira geometria é retornada sem modificação.

Tipos de exceção para SQLSTATE

Os tipos de exceção agora dão suporte a SQLSTATE. Se o seu código analisar exceções por comparação de strings ou capturar tipos de exceção específicos, atualize a lógica de tratamento de erros.

Suporte ao tipo de dados DATETIMEOFFSET para o Microsoft Azure Synapse

O DATETIMEOFFSET tipo de dados agora está disponível para conexões do Microsoft Azure Synapse.

Comentários da tabela do Google BigQuery

As descrições da tabela do Google BigQuery são resolvidas e expostas como comentários de tabela.

Evolução do esquema com INSERT declarações

Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. Há suporte para INSERT INTO, INSERT OVERWRITE e INSERT INTO ... REPLACE formas. Por exemplo:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

O esquema da tabela Delta Lake de destino é atualizado para acomodar colunas adicionais ou tipos expandidos da origem. Para obter detalhes, consulte a evolução do esquema e INSERT a sintaxe da instrução.

Valores de struct preservados como NULL em operações INSERT

INSERT as operações com evolução de esquema ou conversão implícita agora preservam NULL valores de struct quando as tabelas de origem e destino apresentam ordens diferentes nos campos de struct.

função SQL parse_timestamp

A função SQL parse_timestamp analisa cadeias de caracteres de carimbo de data/hora usando vários padrões e é executada no mecanismo Photon para melhorar o desempenho ao analisar carimbos de data/hora em vários formatos. Consulte padrões datetime para obter informações sobre a formatação de padrão datetime.

max_by e min_by com limite opcional

As funções de agregação max_by e min_by agora aceitam um terceiro argumento limit opcional (até 100.000). Quando fornecidas, as funções retornam uma matriz de até limit valores correspondentes aos maiores (ou menores) valores da expressão de ordenação, simplificando as consultas top-K e bottom-K sem funções de janela ou CTEs.

Agregação de vetor e funções escalares

Novas funções SQL operam em ARRAY<FLOAT> vetores para cargas de trabalho de incorporação e similaridade.

Funções de agregação:

  • vector_avg: retorna a média de vetores em termos de elemento em um grupo.
  • vector_sum: retorna a soma de vetores em termos de elemento em um grupo.

Funções escalares:

Consulte funções internas.

Suporte ao cursor SQL em instruções compostas

As declarações compostas de script SQL agora oferecem suporte para o processamento de cursores. Use DECLARE CURSOR para definir um cursor e então utilize uma instrução OPEN, uma instrução FETCH e uma instrução CLOSE para executar a consulta e consumir as linhas uma de cada vez. Os cursores podem usar marcadores de parâmetro e manipuladores de condição, como NOT FOUND para processamento linha por linha.

Funções de esboço aproximadas top-k

As novas funções permitem a criação e a combinação de esboços top-K aproximados para agregação distribuída top-K:

Para obter mais informações, consulte approx_top_k a função de agregação e as funções internas.

Funções de esboço de tupla

Novas funções agregadas e escalares para esboço de tupla dão suporte a contagem e agregação distintas em pares de resumo de chave.

Funções de agregação:

Funções escalares:

Consulte funções internas.

Dependências personalizadas para Python UDTFs do Unity Catalog

As funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog agora podem usar dependências personalizadas para bibliotecas externas, permitindo o uso de pacotes além dos disponíveis no ambiente padrão do SQL Warehouse. Consulte Estender UDFs usando dependências personalizadas.

Novas funções geoespaciais

As seguintes funções geoespaciais agora estão disponíveis:

  • st_estimatesrid função: Estima o melhor identificador de referência espacial projetado (SRID) para uma geometria de entrada.
  • st_force2d função: converte uma geografia ou geometria em sua representação 2D.
  • st_nrings função: conta o número total de anéis em um polígono ou multipolígono, incluindo anéis externos e interiores.
  • st_numpoints função: conta o número de pontos não vazios em uma geografia ou geometria.

Suporte a fótons para funções geoespaciais

As seguintes funções geoespaciais agora são executadas no mecanismo photon para obter um desempenho mais rápido:

Fevereiro de 2026

O Databricks SQL versão 2025.40 está sendo implantado no Current

23 de fevereiro de 2026

O Databricks SQL versão 2025.40 está sendo distribuído para o canal Atual . Confira os recursos em 2025.40.

O Databricks SQL versão 2025.40 agora está disponível na versão prévia

11 de fevereiro de 2026

O Databricks SQL versão 2025.40 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

O script SQL está amplamente disponível.

O script SQL agora está disponível em geral. Escreva lógica de procedimento com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções.

Os marcadores de parâmetro agora têm suporte em mais contextos SQL

Agora você pode usar marcadores de parâmetro nomeados (:param) e não nomeados (?) em qualquer lugar em que um valor literal do tipo apropriado é permitido. Isso inclui instruções DDL, como CREATE VIEW v AS SELECT ? AS c1, tipos de coluna, como DECIMAL(:p, :s), e comentários, como COMMENT ON t IS :comment. Isso permite que você parametrize uma grande variedade de instruções SQL sem expor seu código a ataques de injeção de SQL. Consulte marcadores de parâmetros.

IDENTIFIER cláusula expandida para mais contextos SQL

A IDENTIFIER cláusula, que converte cadeias de caracteres em nomes de objeto SQL, agora tem suporte em quase todos os contextos em que um identificador é permitido. Combinado com o marcador de parâmetro expandido e o suporte à associação de cadeia de caracteres literal, você pode parametrizar qualquer coisa, desde aliases de coluna (AS IDENTIFIER(:name)) até definições de coluna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.

Mesclagem de cadeia de caracteres literal com suporte em todas as plataformas

Literais de cadeia de caracteres sequenciais, como 'Hello' ' World', agora se agrupam em 'Hello World' em qualquer contexto em que literais de cadeia de caracteres são permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.

Nova função de BITMAP_AND_AGG

Uma nova função BITMAP_AND_AGG agora está disponível para complementar a biblioteca de BITMAP funções existente.

Novas funções Theta Sketch para contagens distintas aproximadas

Uma nova biblioteca de funções para operações aproximadas de contagem distinta e de conjunto, usando o Theta Sketch do Datasketches, agora está disponível.

Novas funções de esboço kll para quantiles aproximados

Uma nova biblioteca de funções para a criação de Esboços KLL para cálculo de quantis aproximados agora está disponível.

Você pode mesclar vários esboços KLL em um contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.

Funções da janela SQL em exibições de métrica

Agora você pode usar funções de janela SQL em exibições de métrica para calcular totais em execução, classificações e outros cálculos baseados em janela.

Novas funções geoespaciais

As seguintes novas funções geoespaciais agora estão disponíveis:

Suporte de entrada EWKT para funções de geometria e geografia existentes

As seguintes funções agora aceitam Texto Bem-Conhecido Estendido (EWKT) como entrada:

Desempenho aprimorado para consultas repetidas em tabelas com filtros de linha e máscaras de coluna

Consultas qualificadas repetidas em tabelas com filtros de linha e máscaras de coluna agora se beneficiam de um cache de resultados de consulta aprimorado, resultando em tempos de execução mais rápidos.

Desempenho aprimorado da função geoespacial

O desempenho de junção espacial é aprimorado com suporte para junção espacial com embaralhamento. As seguintes funções ST agora têm implementações de Photon:

FSCK REPAIR TABLE inclui reparo de metadados por padrão

FSCK REPAIR TABLE agora inclui uma etapa inicial de reparo de metadados antes de verificar se há arquivos de dados ausentes, permitindo que ele funcione em tabelas com pontos de verificação corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída agora aceita valor nulo para dar suporte a novos tipos de questões em que o caminho do arquivo de dados não é aplicável.

DESCRIBE TABLE a saída inclui a coluna de metadados

A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma coluna de metadata para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de exibição, formato e sinônimos) definidos na tabela como uma cadeia de caracteres JSON.

Structs NULL preservadas em operações de mesclagem, UPDATE, e operações de escrita em fluxo

Os structs NULL agora são mantidos como NULL no Delta Lake MERGE, UPDATE e operações de gravação de streaming que incluem conversões para o tipo struct. Anteriormente, os structs NULL eram expandidos para structs com todos os campos definidos como NULL.

Colunas de partição materializadas em arquivos Parquet

As tabelas particionadas do Delta Lake agora materializam colunas de partições em arquivos de dados Parquet recém-gravados. Anteriormente, os valores de partição eram armazenados apenas nos metadados do log de transações do Delta Lake. As cargas de trabalho que leem diretamente arquivos Parquet gravados pelo Delta Lake veem colunas de partição adicionais em arquivos gravados recentemente.

Valores de partição de carimbo de data/hora respeitam o fuso horário da sessão

Agora, os valores de partição de carimbo de data/hora são ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eles eram convertidos incorretamente em UTC usando o fuso horário JVM.

Restrições de viagem no tempo atualizadas

O Azure Databricks agora bloqueia consultas de viagem no tempo que excedam o deletedFileRetentionDuration limite para todas as tabelas. O VACUUM comando ignora o argumento de duração de retenção, exceto quando o valor é de 0 horas. Você não pode definir deletedFileRetentionDuration maior que logRetentionDuration.

SHOW TABLES DROPPED respeita a cláusula LIMIT

SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.

Janeiro de 2026