Maio de 2025

Esses recursos e melhorias na plataforma Azure Databricks foram lançados em maio de 2025.

Note

As liberações são disponibilizadas em fases. Sua conta de Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.

Interface aprimorada para gerenciar painéis de controle de notebooks

30 de maio de 2025

Navegue rapidamente entre um bloco de anotações e seus painéis associados clicando no ícone painel. No canto superior direito.

Consulte Navegar entre um painel de notebook e um notebook.

Aprimoramentos de criação do SQL

30 de maio de 2025

Foram feitas as seguintes melhorias na experiência de edição do SQL no editor e nos notebooks do SQL:

  • Os filtros aplicados às tabelas de resultados agora também afetam as visualizações, permitindo a exploração interativa sem modificar a consulta ou o conjunto de dados subjacente. Para saber mais sobre filtros, consulte Os resultados do filtro.
  • Em um bloco de anotações SQL, agora você pode criar uma nova consulta a partir de uma tabela de resultados filtrada ou visualização. Consulte Criar uma consulta com base nos resultados filtrados.
  • Você pode passar o mouse sobre * em uma consulta SELECT * para expandir as colunas na tabela consultada.
  • As configurações de formatação personalizadas do SQL agora estão disponíveis no novo editor do SQL e no editor do bloco de anotações. Clique em Exibir > Configurações do Desenvolvedor > Formato SQL. Consulte Personalizar a formatação do SQL.

As exibições de métrica estão na Versão preview pública

29 de maio de 2025

As exibições de métrica do Catálogo do Unity fornecem uma maneira centralizada de definir e gerenciar métricas de negócios essenciais consistentes, reutilizáveis e governadas. Eles abstraem a lógica de negócios complexa em uma definição centralizada, permitindo que as organizações definam indicadores de desempenho importantes uma vez e os usem consistentemente em ferramentas de relatório, como dashboards, Genie Spaces e alertas. Use um SQL Warehouse em execução no canal Preview (2025.16) ou em outro recurso de computação executando o Databricks Runtime 16.4 ou superior para trabalhar com visualizações de métricas. Veja as visões métricas do Catálogo Unity.

O Assistente de Conhecimento para chatbots especializados em domínio está em Beta

29 de maio de 2025

No Beta, o Assistente de Conhecimento dá suporte à criação de um chatbot de perguntas e respostas em seus documentos e à melhoria de sua qualidade com base nos comentários em linguagem natural de seus especialistas no assunto.

Veja Use o Assistente de Conhecimento para criar um chatbot de alta qualidade em seus documentos.

Tabela do sistema de workspaces agora disponível (Visualização Pública)

28 de maio de 2025

Agora você pode usar a system.access.workspaces_latest tabela para monitorar o estado mais recente de todos os workspaces ativos em sua conta.

Una esta tabela com outras tabelas do sistema para analisar a confiabilidade, o desempenho e o custo nos espaços de trabalho da sua conta. Consulte a referência da tabela do sistema Workspaces.

Os modelos Claude Sonnet 4 e Claude Opus agora estão disponíveis no Mosaic AI Model Serving

27 de maio de 2025

Os modelos Antropic Claude Sonnet 4 e Antropic Claude Opus 4 agora estão disponíveis no Mosaic AI Model Servindo como modelos de fundação hospedados pelo Databricks.

Esses modelos estão disponíveis usando as APIs do Foundation Model pagas por token apenas em regiões dos EUA.

Novos alertas na Versão Beta

22 de maio de 2025

Uma nova versão dos alertas sql do Databricks agora está em Beta. Você pode usar alertas para executar consultas periodicamente, avaliar condições definidas e enviar notificações se uma condição for atendida. Essa versão simplifica a criação e o gerenciamento de alertas consolidando a configuração de consultas, as condições, os agendamentos e os destinos de notificação em uma única interface. Você ainda pode usar alertas herdados junto com a nova versão. Consulte os alertas do DATAbricks SQL.

Atualizações para o intervalo de IP público de saída para nossos serviços de plano de controle

20 de maio de 2025

A partir de 20 de maio de 2025, Azure Databricks está implantando novos componentes do plano de controle para melhorar a segurança e a disponibilidade da zona. Como parte dessa atualização, estamos atualizando os IPs públicos de egress (saída) e as tags de serviço do Azure associadas para nossos serviços do plano de controle.

Essa alteração afeta os clientes que usam firewalls de recursos para controlar o acesso de entrada aos seus recursos:

  • Se as regras de firewall fizerem referência à tag de serviço do Azure Databricks, nenhuma ação será necessária.
  • Se as regras de firewall permitirem IPs públicos específicos do Azure Databricks plano de controle, você deverá:

Painéis, alertas e consultas contam com suporte como arquivos de workspace

20 de maio de 2025

Agora há suporte para painéis, alertas e consultas como arquivos de workspace, o que significa que você pode interagir programaticamente com esses objetos do Databricks, como qualquer outro arquivo, de qualquer lugar em que o sistema de arquivos do workspace esteja disponível. Veja o que são arquivos de workspace? E interaja programaticamente com arquivos de workspace.

A tabela do sistema de pipelines agora está disponível (preview pública)

20 de maio de 2025

A tabela system.lakeflow.pipelines é uma tabela de dimensão de mudança lenta (SCD2) que rastreia todos os pipelines criados em sua conta do Azure Databricks.

Consulte o esquema da tabela Pipelines.

Azure Databricks dá suporte ao acesso de leitura entre nuvens ao armazenamento do AWS S3

20 de maio de 2025

Use o Catálogo do Unity para acessar e controlar todos os seus dados S3 de dentro de um ambiente de Azure Databricks seguro. Não é necessário migrar ou copiar conjuntos de dados. O acesso do S3 é somente leitura.

Consulte Criar uma credencial de armazenamento para se conectar ao AWS S3 (somente leitura).

Pacotes de Automação Declarativa no espaço de trabalho (Pré-visualização Pública)

19 de maio de 2025

Colaborar em Pacotes de Automação Declarativa com outros usuários em sua organização agora é mais fácil com pacotes no workspace, o que permite que os usuários do workspace editem, confirmem, testem e implantem atualizações de pacote por meio da interface do usuário.

Consulte Colaborar em pacotes no workspace.

O reparo da tarefa de Workflow agora respeita as dependências transitivas

19 de maio de 2025

Antes, as tarefas reparadas eram desbloqueadas após suas dependências diretas serem concluídas. Agora, as tarefas reparadas aguardam todas as dependências transitivas. Por exemplo, em um gráfico A → B → C, reparar A e C bloqueará C até que A seja concluído.

Aplicativos do Databricks (disponível em geral)

13 de maio de 2025

Os Aplicativos do Databricks estão agora em disponibilidade geral (GA). Esse recurso permite que você crie e execute aplicações interativas full-stack diretamente no espaço de trabalho Databricks. Os aplicativos são executados em infraestrutura gerenciada e integram-se ao Delta Lake, notebooks, modelos de aprendizado de máquina e Catálogo Unity.

Consulte Os Aplicativos do Databricks.

Databricks Runtime 16.4 LTS é em GA

13 de maio de 2025

O Databricks Runtime 16.4 e o Databricks Runtime 16.4 ML agora estão disponíveis em geral.

Consulte Databricks Runtime 16.4 LTS e Databricks Runtime 16.4 LTS para Aprendizado de Máquina.

As cargas de trabalho de CPU para a prestação de serviços de modelos agora atendem aos padrões do perfil de segurança de conformidade

13 de maio de 2025

As cargas de trabalho de CPU do Serviço de Modelos agora suportam os seguintes padrões de conformidade oferecidos por meio do perfil de segurança de conformidade:

  • HIPAA
  • HITRUST
  • PCI-DSS
  • Cyber Essentials Plus do Reino Unido

Confira Padrões de perfil de segurança de conformidade: workloads de CPU para ver a disponibilidade por região desses padrões.

Driver JDBC do Databricks 2.7.3

12 de maio de 2025

O Databricks JDBC Driver versão 2.7.3 agora está disponível para download na página de download do JDBC Driver.

Esta versão inclui os seguintes aprimoramentos e novos recursos:

  • Adicionado suporte para autenticação OAuth 2.0 de identidade gerenciada Azure. Para habilitar isso, defina a Auth_Flow propriedade como 3.
  • Adicionado suporte para troca de token OAuth para IDPs diferentes do host. Os tokens de acesso OAuth (incluindo BYOT) serão trocados por um token de acesso do Databricks.
  • O navegador OAuth (Auth_Flow=2) agora dá suporte ao cache de token para sistemas operacionais Linux e Mac.
  • Adicionado suporte para tipos de dados VOID, Variant e TIMESTAMP_NTZ nas APIs getColumns() e getTypeInfo().
  • O driver agora lista colunas com tipos desconhecidos ou sem suporte e mapeia-as para SQL VARCHARgetColumns() na API de metadados.
  • Adicionado suporte para domínios cloud.databricks.us e cloud.databricks.mil ao se conectar ao Databricks usando OAuth (AuthMech=11).
  • Atualizado para netty-buffer 4.1.119 e netty-common 4.1.119 (anteriormente 4.1.115).

Esta versão resolve os seguintes problemas:

  • Problemas de compatibilidade ao desserializar dados do Apache Arrow com Java JVMs versão 11 ou superior.
  • Problemas com data e carimbo de data e hora antes do início do calendário gregoriano ao conectar-se a versões específicas do Spark com serialização de conjunto de resultados Arrow.

Para obter informações completas sobre a configuração, consulte o Guia do Driver JDBC do Databricks instalado com o pacote de download do driver.

Esquema de tabelas de sistema de linhagem atualizado

11 de maio de 2025

As tabelas do sistema de linhagem (system.access.column_lineage e system.access.table_lineage) foram atualizadas para registrar melhor as informações de entidades.

  • A entity_metadata coluna substitui entity_type, entity_run_ide entity_id, que foram preteridas.
  • A record_id coluna é uma nova chave primária para o registro de linhagem.
  • A event_id coluna registra um identificador para o evento de linhagem, que pode ser compartilhado por várias linhas se elas forem geradas pelo mesmo evento.
  • A coluna statement_id loga a ID da declaração de consulta que gerou o evento de linhagem. É uma chave estrangeira que pode ser unida à tabela system.query.history.

Para obter um esquema completo dessas tabelas, consulte Referência de tabelas do sistema de linhagem.

Agora você pode colaborar com várias partes usando o Azure Databricks Clean Rooms.

14 de maio de 2025

Azure Databricks Salas Limpas agora dá suporte a:

  • Até 10 colaboradores para projetos de dados multipartetários mais complexos.
  • Novo workflow de aprovação de notebook que melhora a segurança e a conformidade, permitindo que os executores designados exijam aprovação explícita antes da execução
  • Opções de aprovação automática para parceiros confiáveis.
  • Visualizações de diferenças para facilitar a revisão e auditoria.

Essas atualizações permitem uma colaboração mais segura, escalonável e auditável.

Azure Databricks GitHub App adiciona escopo de fluxo de trabalho para dar suporte à criação de GitHub Actions

9 de maio de 2025

Azure Databricks fez uma alteração e você pode receber uma solicitação de email para o escopo acesso de leitura e gravação a fluxos de trabalho do aplicativo Azure Databricks GitHub. Essa alteração torna o escopo do aplicativo Azure Databricks GitHub consistente com o escopo necessário de outros métodos de autenticação com suporte e permite que os usuários confirmem GitHub Actions de pastas git Azure Databricks usando o Azure Databricks GitHub para autorização.

Se você for o proprietário de uma conta Azure Databricks em que o aplicativo Azure Databricks GitHub está instalado e configurado para dar suporte ao OAuth, poderá receber a seguinte notificação em um email intitulado "O Databricks está solicitando permissões atualizadas" de GitHub. (Esta é uma solicitação de email legítima do Databricks.) Aceite as novas permissões para habilitar a confirmação de GitHub Actions de pastas do Azure Databricks Git com o aplicativo Databricks GitHub.

A imagem de email que você pode receber quando o aplicativo Databricks GitHub solicita acesso ao Workflow

Provisionar automaticamente usuários (JIT) GA

9 de maio de 2025

Agora você pode habilitar o provisionamento JIT (just-in-time) para criar automaticamente novas contas de usuário durante a autenticação inicial. Quando um usuário faz logon no Azure Databricks pela primeira vez usando o SSO (logon único), Azure Databricks verifica se o usuário já tem uma conta. Caso contrário, Azure Databricks provisiona instantaneamente uma nova conta de usuário usando detalhes do provedor de identidade. Consulte Provisionar automaticamente usuários (JIT).

Agora, os snippets de consulta estão disponíveis no novo editor de SQL, notebooks, arquivos e painéis.

9 de maio de 2025

Trechos de consulta são segmentos de consultas que você pode compartilhar e ativar usando o preenchimento automático. Agora você pode criar snippets de consulta por meio do menu Exibir no novo editor do SQL e também nos editores de blocos de anotações e arquivos. Você pode usar os snippets de consulta no editor do SQL, nas células SQL do notebook, nos arquivos SQL e nos conjuntos de dados SQL nos painéis.

Consulte Snippets de consulta.

Agora você pode criar visões em pipelines de ETL

8 de maio de 2025

O CREATE VIEW comando SQL agora está disponível em pipelines de ETL. Você pode criar uma exibição dinâmica de seus dados. Consulte CREATE VIEW (pipelines).

Configurar o realce da sintaxe Python em blocos de anotações do Databricks

8 de maio de 2025

Agora você pode configurar o destaque de sintaxe do Python em notebooks, colocando um arquivo pyproject.toml no caminho de diretórios pai dos notebooks ou na sua pasta home. Por meio do arquivo pyproject.toml, você pode configurar os linters ruff, pylint, pyright e flake8, bem como desabilitar regras específicas do Databricks. Essa configuração tem suporte para clusters que executam o Databricks Runtime 16.4 ou superior ou o Cliente 3.0 ou superior.

Consulte Configurar o realce da sintaxe Python.

A LLM personalizada para agentes de texto de IA de geração personalizada está em Beta

7 de maio de 2025

Na Versão Beta, a LLM Personalizada dá suporte à criação de uma LLM especializada para tarefas personalizadas baseadas em texto, como resumo, classificação, transformação de texto e geração de conteúdo.

Consulte Usar LLM Personalizado para criar um agente de IA de geração para texto (herdado).

Trabalhos e pipelines agora compartilham um modo de exibição único e unificado (versão preview pública)

7 de maio de 2025

Agora você pode ver todos os fluxos de trabalho, incluindo tarefas, pipelines de ETL e pipelines de ingestão, em uma única lista integrada. Confira Exibir trabalhos e pipelines.

Otimização preditiva habilitada para todas as contas de Azure Databricks existentes

7 de maio de 2025

A partir de 7 de maio de 2025, o Databricks habilitou a otimização preditiva por padrão para todas as contas existing Azure Databricks. Isso será implantado gradualmente com base em sua região e será concluído até 1º de julho de 2025. Quando a otimização preditiva estiver habilitada, Azure Databricks executará automaticamente as operações de manutenção para tabelas gerenciadas do Catálogo do Unity. Para obter mais informações sobre otimização preditiva, confira Otimização preditiva para tabelas gerenciadas do Catálogo do Unity.

O Llama 4 Maverick agora tem suporte em cargas de trabalho com taxa de transferência provisionada (Visualização Pública)

5 de maio de 2025

O Llama 4 Maverick agora tem suporte em cargas de trabalho com taxa de transferência provisionada das APIs de Modelo de Base em Visualização Pública. Confira APIs de Modelo de Base com taxa de transferência provisionada.

Confira Limites de taxa de transferência provisionada para limitações do Llama 4 Maverick durante a visualização.

Entre em contato com sua equipe de conta do Databricks para participar da versão prévia.

Eventos de arquivos para locais externos melhoram as notificações de arquivos no Auto Loader e os gatilhos de chegada de arquivos em trabalhos (versão preview pública)

5 de maio de 2025

Agora você pode habilitar eventos de arquivo em locais externos definidos no Catálogo do Unity. Isso torna os disparadores de recebimento de arquivos em trabalhos e as notificações de arquivo no Auto Loader mais escaláveis e eficientes.

Esse recurso está em Visualização Pública. O suporte do Carregador Automático para eventos de arquivo requer habilitação por um representante Azure Databricks. Para obter acesso, entre em contato com sua equipe de conta Azure Databricks.

Para obter detalhes, confira o seguinte:

Expansão da região do Serviço de Modelo de IA do Mosaic

5 de maio de 2025

O Mosaic AI Model Serving agora está disponível nas seguintes regiões:

  • eastasia
  • francecentral
  • germanywestcentral
  • koreacentral
  • swedencentral
  • switzerlandnorth
  • uaenorth
  • westus3

Consulte Modelos de disponibilidade de funcionalidades de serviço.

As tabelas do sistema de trabalhos (Visualização Pública) são habilitadas por padrão

1º de maio de 2025

O system.lakeflow esquema, que contém tabelas do sistema relacionadas a tarefas, agora está habilitado por padrão em todos os espaços de trabalho do Catálogo do Unity. Confira Referência da tabela do sistema de trabalhos.