Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Esse artigo aborda o Databricks Connect para Databricks Runtime 13.3 LTS e superior.
Este artigo lista as limitações com o Databricks Connect para Python. O Databricks Connect permite que você conecte IDEs populares, servidores de notebook e aplicativos personalizados para Azure Databricks clusters. Consulte Databricks Connect. Para obter a versão do Scala deste artigo, consulte Limitações com o Databricks Connect para Scala.
Importante
Dependendo da versão do Python, do Databricks Runtime e do Databricks Connect que você está usando, pode haver requisitos de versão para alguns recursos. Consulte os requisitos de uso do Databricks Connect.
Disponibilidade de funcionalidades
Não disponível no Databricks Connect para o Databricks Runtime 13.3 LTS e versões anteriores:
- Streaming
foreachBatch - Como criar DataFrames maiores que 128 MB
- Consultas longas acima de 3600 segundos
Não disponível no Databricks Connect para Databricks Runtime 15.3 e abaixo:
-
ApplyinPandas()eCogroup()com recursos de computação com modo de acesso padrão
Não disponível no Databricks Connect para Databricks Runtime 16.3 e abaixo:
- Na computação sem servidor, as UDFs não podem incluir bibliotecas personalizadas.
Não disponível:
-
dataframe.display()Interface de Programação de Aplicações (API) - Utilitários do Databricks:
credentials,library,notebook workflowewidgets - Contexto do Spark
- RDDs
- Bibliotecas que usam RDDs, Spark Context ou acessam a JVM subjacente do Spark, como Mosaic geospatial, GraphFrames ou GreatExpectations.
-
CREATE TABLE <table-name> AS SELECT(em vez disso, usespark.sql("SELECT ...").write.saveAsTable("table")) - Alterar o nível de registro do log4j através de
SparkContext - Não há suporte para treinamento de ML distribuído.
- Sincronizar o ambiente de desenvolvimento local com o cluster remoto