Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Os recursos e melhorias do SQL do Databricks a seguir foram lançados em 2026.
Março de 2026
O Databricks SQL versão 2026.10 agora está disponível na versão prévia
26 de março de 2026
O Databricks SQL versão 2026.10 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.
Erros de métrica de observação não causam mais falhas em consultas
Erros durante a coleta de métricas de observação não causam mais falhas de execução de consulta. Anteriormente, erros em OBSERVE cláusulas (como divisão por zero) podiam bloquear ou falhar a consulta inteira. Agora, a consulta é concluída com êxito e o erro é gerado quando você chama observation.get.
Cláusula FILTER para funções de agregação MEASURE
As funções de agregação MEASURE agora dão suporte a cláusulas FILTER. Anteriormente, os filtros eram silenciosamente ignorados.
Operações de gravações otimizadas para CRTAS do Unity Catalog
CRIAR OU SUBSTITUIR TABLE As operações do AS SELECT (CRTAS) em tabelas particionadas do Catálogo do Unity agora aplicam gravações otimizadas por padrão, produzindo menos arquivos maiores. Para desabilitar, defina spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled como false.
Valores de partição de timestamp usam o fuso horário da sessão
Os valores de partição de carimbo de data/hora agora usam o fuso horário da sessão do SQL Warehouse. Se você tiver partições de carimbo de data/hora gravadas antes do Databricks SQL versão 2025.40, execute SHOW PARTITIONS para verificar os metadados de partição antes de gravar novos dados.
Palavra-chave reservada DESCRIBE FLOW
O DESCRIBE FLOW comando agora está disponível. Se você tiver uma tabela chamada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow, ou DESCRIBE `flow` com backticks.
Operações de conjunto booleanas do SpatialSQL
ST_Difference, ST_Intersection, e ST_Union use uma nova implementação com as seguintes melhorias:
- Geometrias de entrada válidas sempre produzem um resultado e não geram mais erros. Entradas inválidas não geram erros, mas podem não produzir resultados válidos.
- Desempenho aproximadamente 2x mais rápido.
- Os resultados podem diferir após o 15º local decimal para interseções de segmento de linha devido a fórmulas e ordem de operações diferentes.
- Os resultados são normalizados para uma saída consistente e comparável:
- Os pontos são classificados por valores de coordenadas.
- As linhas de linha são criadas a partir dos caminhos mais longos possíveis.
- Os anéis de polígono são girados para que o primeiro ponto tenha os menores valores de coordenadas.
- Essa normalização se aplica em todos os casos, exceto ao chamar
ST_Differencecom duas geometrias não sobrepostas, em que a primeira geometria é retornada sem modificação.
Tipos de exceção para SQLSTATE
Os tipos de exceção agora dão suporte a SQLSTATE. Se o seu código analisar exceções por comparação de strings ou capturar tipos de exceção específicos, atualize a lógica de tratamento de erros.
Suporte ao tipo de dados DATETIMEOFFSET para o Microsoft Azure Synapse
O DATETIMEOFFSET tipo de dados agora está disponível para conexões do Microsoft Azure Synapse.
Comentários da tabela do Google BigQuery
As descrições da tabela do Google BigQuery são resolvidas e expostas como comentários de tabela.
Evolução do esquema com INSERT declarações
Use a WITH SCHEMA EVOLUTION cláusula com instruções SQL INSERT para evoluir automaticamente o esquema da tabela de destino durante as operações de inserção. Há suporte para INSERT INTO, INSERT OVERWRITE e INSERT INTO ... REPLACE formas. Por exemplo:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
O esquema da tabela Delta Lake de destino é atualizado para acomodar colunas adicionais ou tipos expandidos da origem. Para obter detalhes, consulte a evolução do esquema e INSERT a sintaxe da instrução.
Valores de struct preservados como NULL em operações INSERT
INSERT as operações com evolução de esquema ou conversão implícita agora preservam NULL valores de struct quando as tabelas de origem e destino apresentam ordens diferentes nos campos de struct.
função SQL parse_timestamp
A função SQL parse_timestamp analisa cadeias de caracteres de carimbo de data/hora usando vários padrões e é executada no mecanismo Photon para melhorar o desempenho ao analisar carimbos de data/hora em vários formatos. Consulte padrões datetime para obter informações sobre a formatação de padrão datetime.
max_by e min_by com limite opcional
As funções de agregação max_by e min_by agora aceitam um terceiro argumento limit opcional (até 100.000). Quando fornecidas, as funções retornam uma matriz de até limit valores correspondentes aos maiores (ou menores) valores da expressão de ordenação, simplificando as consultas top-K e bottom-K sem funções de janela ou CTEs.
Agregação de vetor e funções escalares
Novas funções SQL operam em ARRAY<FLOAT> vetores para cargas de trabalho de incorporação e similaridade.
Funções de agregação:
- vector_avg: retorna a média de vetores em termos de elemento em um grupo.
- vector_sum: retorna a soma de vetores em termos de elemento em um grupo.
Funções escalares:
- vector_cosine_similarity: retorna a similaridade do cosseno de dois vetores.
- vector_inner_product: retorna o produto interno (ponto) de dois vetores.
- vector_l2_distance: retorna a distância euclidiana (L2) entre dois vetores.
- vector_norm: retorna a norma LP de um vetor (1, 2 ou infinito).
- vector_normalize: retorna um vetor normalizado para o comprimento da unidade.
Consulte funções internas.
Suporte ao cursor SQL em instruções compostas
As declarações compostas de script SQL agora oferecem suporte para o processamento de cursores. Use DECLARE CURSOR para definir um cursor e então utilize uma instrução OPEN, uma instrução FETCH e uma instrução CLOSE para executar a consulta e consumir as linhas uma de cada vez. Os cursores podem usar marcadores de parâmetro e manipuladores de condição, como NOT FOUND para processamento linha por linha.
Funções de esboço aproximadas top-k
As novas funções permitem a criação e a combinação de esboços top-K aproximados para agregação distribuída top-K:
- approx_top_k_accumulate: Constrói um esboço por grupo.
- approx_top_k_combine: mescla esboços.
- approx_top_k_estimate: retorna os principais itens K com contagens estimadas.
Para obter mais informações, consulte approx_top_k a função de agregação e as funções internas.
Funções de esboço de tupla
Novas funções agregadas e escalares para esboço de tupla dão suporte a contagem e agregação distintas em pares de resumo de chave.
Funções de agregação:
-
tuple_sketch_agg_doublefunção de agregação -
tuple_sketch_agg_integerfunção de agregação -
tuple_union_agg_doublefunção de agregação -
tuple_union_agg_integerfunção de agregação -
tuple_intersection_agg_doublefunção de agregação -
tuple_intersection_agg_integerfunção de agregação
Funções escalares:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
Consulte funções internas.
Dependências personalizadas para Python UDTFs do Unity Catalog
As funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog agora podem usar dependências personalizadas para bibliotecas externas, permitindo o uso de pacotes além dos disponíveis no ambiente padrão do SQL Warehouse. Consulte Estender UDFs usando dependências personalizadas.
Novas funções geoespaciais
As seguintes funções geoespaciais agora estão disponíveis:
-
st_estimatesridfunção: Estima o melhor identificador de referência espacial projetado (SRID) para uma geometria de entrada. -
st_force2dfunção: converte uma geografia ou geometria em sua representação 2D. -
st_nringsfunção: conta o número total de anéis em um polígono ou multipolígono, incluindo anéis externos e interiores. -
st_numpointsfunção: conta o número de pontos não vazios em uma geografia ou geometria.
Suporte a fótons para funções geoespaciais
As seguintes funções geoespaciais agora são executadas no mecanismo photon para obter um desempenho mais rápido:
Fevereiro de 2026
O Databricks SQL versão 2025.40 está sendo implantado no Current
23 de fevereiro de 2026
O Databricks SQL versão 2025.40 está sendo distribuído para o canal Atual . Confira os recursos em 2025.40.
O Databricks SQL versão 2025.40 agora está disponível na versão prévia
11 de fevereiro de 2026
O Databricks SQL versão 2025.40 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.
O script SQL está amplamente disponível.
O script SQL agora está disponível em geral. Escreva lógica de procedimento com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções.
Os marcadores de parâmetro agora têm suporte em mais contextos SQL
Agora você pode usar marcadores de parâmetro nomeados (:param) e não nomeados (?) em qualquer lugar em que um valor literal do tipo apropriado é permitido. Isso inclui instruções DDL, como CREATE VIEW v AS SELECT ? AS c1, tipos de coluna, como DECIMAL(:p, :s), e comentários, como COMMENT ON t IS :comment. Isso permite que você parametrize uma grande variedade de instruções SQL sem expor seu código a ataques de injeção de SQL. Consulte marcadores de parâmetros.
IDENTIFIER cláusula expandida para mais contextos SQL
A IDENTIFIER cláusula, que converte cadeias de caracteres em nomes de objeto SQL, agora tem suporte em quase todos os contextos em que um identificador é permitido. Combinado com o marcador de parâmetro expandido e o suporte à associação de cadeia de caracteres literal, você pode parametrizar qualquer coisa, desde aliases de coluna (AS IDENTIFIER(:name)) até definições de coluna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.
Mesclagem de cadeia de caracteres literal com suporte em todas as plataformas
Literais de cadeia de caracteres sequenciais, como 'Hello' ' World', agora se agrupam em 'Hello World' em qualquer contexto em que literais de cadeia de caracteres são permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.
Nova função de BITMAP_AND_AGG
Uma nova função BITMAP_AND_AGG agora está disponível para complementar a biblioteca de BITMAP funções existente.
Novas funções Theta Sketch para contagens distintas aproximadas
Uma nova biblioteca de funções para operações aproximadas de contagem distinta e de conjunto, usando o Theta Sketch do Datasketches, agora está disponível.
-
theta_sketch_aggfunção de agregação -
theta_union_aggfunção de agregação -
theta_intersection_aggfunção de agregação -
theta_sketch_estimatefunção -
theta_unionfunção -
theta_differencefunção -
theta_intersectionfunção
Novas funções de esboço kll para quantiles aproximados
Uma nova biblioteca de funções para a criação de Esboços KLL para cálculo de quantis aproximados agora está disponível.
-
kll_sketch_agg_bigintfunção de agregação -
kll_sketch_get_quantile_bigintfunção -
kll_sketch_merge_bigintfunção -
kll_sketch_agg_doublefunção de agregação -
kll_sketch_get_quantile_doublefunção -
kll_sketch_merge_doublefunção -
kll_sketch_agg_floatfunção de agregação -
kll_sketch_get_quantile_floatfunção -
kll_sketch_merge_floatfunção -
kll_sketch_get_n_bigintfunção -
kll_sketch_get_rank_bigintfunção -
kll_sketch_to_string_bigintfunção -
kll_sketch_get_n_doublefunção -
kll_sketch_get_rank_doublefunção -
kll_sketch_to_string_doublefunção -
kll_sketch_get_n_floatfunção -
kll_sketch_get_rank_floatfunção -
kll_sketch_to_string_floatfunção
Você pode mesclar vários esboços KLL em um contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.
Funções da janela SQL em exibições de métrica
Agora você pode usar funções de janela SQL em exibições de métrica para calcular totais em execução, classificações e outros cálculos baseados em janela.
Novas funções geoespaciais
As seguintes novas funções geoespaciais agora estão disponíveis:
-
st_azimuthfunção: retorna o azimute baseado no norte do primeiro ponto para o segundo em radianos em[0, 2π). -
st_boundaryfunção: retorna o limite da geometria de entrada. -
st_closestpointfunção: retorna a projeção 2D de um ponto na primeira geometria mais próxima da segunda geometria. -
st_geogfromewktfunção: analisa uma descrição EWKT (Texto Well-Known Estendido) de uma geografia. -
st_geomfromewktfunção: analisa uma descrição de geometria pelo EWKT (Extended Well-Known Text).
Suporte de entrada EWKT para funções de geometria e geografia existentes
As seguintes funções agora aceitam Texto Bem-Conhecido Estendido (EWKT) como entrada:
Desempenho aprimorado para consultas repetidas em tabelas com filtros de linha e máscaras de coluna
Consultas qualificadas repetidas em tabelas com filtros de linha e máscaras de coluna agora se beneficiam de um cache de resultados de consulta aprimorado, resultando em tempos de execução mais rápidos.
Desempenho aprimorado da função geoespacial
O desempenho de junção espacial é aprimorado com suporte para junção espacial com embaralhamento. As seguintes funções ST agora têm implementações de Photon:
FSCK REPAIR TABLE inclui reparo de metadados por padrão
FSCK REPAIR TABLE agora inclui uma etapa inicial de reparo de metadados antes de verificar se há arquivos de dados ausentes, permitindo que ele funcione em tabelas com pontos de verificação corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída agora aceita valor nulo para dar suporte a novos tipos de questões em que o caminho do arquivo de dados não é aplicável.
DESCRIBE TABLE a saída inclui a coluna de metadados
A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma coluna de metadata para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de exibição, formato e sinônimos) definidos na tabela como uma cadeia de caracteres JSON.
Structs NULL preservadas em operações de mesclagem, UPDATE, e operações de escrita em fluxo
Os structs NULL agora são mantidos como NULL no Delta Lake MERGE, UPDATE e operações de gravação de streaming que incluem conversões para o tipo struct. Anteriormente, os structs NULL eram expandidos para structs com todos os campos definidos como NULL.
Colunas de partição materializadas em arquivos Parquet
As tabelas particionadas do Delta Lake agora materializam colunas de partições em arquivos de dados Parquet recém-gravados. Anteriormente, os valores de partição eram armazenados apenas nos metadados do log de transações do Delta Lake. As cargas de trabalho que leem diretamente arquivos Parquet gravados pelo Delta Lake veem colunas de partição adicionais em arquivos gravados recentemente.
Valores de partição de carimbo de data/hora respeitam o fuso horário da sessão
Agora, os valores de partição de carimbo de data/hora são ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eles eram convertidos incorretamente em UTC usando o fuso horário JVM.
Restrições de viagem no tempo atualizadas
O Azure Databricks agora bloqueia consultas de viagem no tempo que excedam o deletedFileRetentionDuration limite para todas as tabelas. O VACUUM comando ignora o argumento de duração de retenção, exceto quando o valor é de 0 horas. Você não pode definir deletedFileRetentionDuration maior que logRetentionDuration.
SHOW TABLES DROPPED respeita a cláusula LIMIT
SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.