Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette page présente les exigences et les limitations pour le calcul dédié. La plupart des limitations de calcul dédiées dépendent du runtime, car la prise en charge des fonctionnalités a été ajoutée au fil du temps.
Important
Les scripts d’initialisation et les bibliothèques ont différentes prises en charge selon les modes d’accès et les versions de Databricks Runtime. Consultez Où peuvent être installés les scripts d’initialisation ? et Bibliothèques à l’échelle du calcul.
Le calcul dédié affecté à un groupe présente des limitations supplémentaires. Consultez les limitations d’accès au groupe.
Prise en charge du contrôle d'accès granulaire
Le contrôle d’accès affiné est pris en charge sur le calcul dédié avec certaines exigences :
- Votre espace de travail doit être activé pour le calcul serverless.
- Les opérations de lecture sont prises en charge sur Databricks Runtime 15.4 LTS et versions ultérieures.
- Les opérations d’écriture sont prises en charge sur Databricks Runtime 16.3 et versions ultérieures. Consultez la prise en charge de DDL, SHOW, DESCRIBE et d’autres commandes.
- Si votre espace de travail a été déployé avec un pare-feu ou a des restrictions réseau sortantes, vous devez ouvrir les ports 8443-8451 pour activer le contrôle d’accès affiné sur le calcul dédié. Consultez Déployer Azure Databricks dans votre réseau virtuel Azure (injection de réseau virtuel).
Si votre calcul dédié s’exécute sur Databricks Runtime 15.3 ou ci-dessous :
- Vous ne pouvez pas accéder à une table qui présente un filtre de ligne ou un masque de colonne.
- Vous ne pouvez pas accéder aux vues dynamiques.
- Pour lire à partir d’une vue, vous devez avoir
SELECTsur toutes les tables et vues référencées par la vue.
Exigences de diffusion en continu et de vue matérialisée sur le calcul dédié
- Pour interroger une table créée par un autre utilisateur à l'aide de Lakeflow Spark Declarative Pipelines, y compris une table de diffusion en continu et une vue matérialisée, votre espace de travail doit être activé pour le calcul serverless, et votre calcul dédié doit fonctionner sur Databricks Runtime 15.4 ou une version ultérieure. Consultez Utiliser des tables de diffusion en continu dans Databricks SQL et Utiliser des vues matérialisées dans Databricks SQL.
- Le point de contrôle asynchrone est pris en charge sur Databricks Runtime 12.2 LTS et versions ultérieures.
- L’utilisation
StreamingQueryListenerpour interagir avec les objets gérés par Unity Catalog est prise en charge sur Databricks Runtime 15.1 et versions ultérieures. - Python
foreachBatchne prend pas en chargeThreadPoolExecutorou n’exécute pas plusieurs threads. L’exécution multithread peut ne pas générer d’erreurs, mais peut entraîner une altération des données ou des résultats incohérents.