Notes de publication sur les lots d'automatisation déclarative

Cet article contient des détails sur les versions des principales offres groupées d’automatisation déclarative (anciennement Databricks Asset Bundles) et leurs modifications. Les fonctionnalités de bundle sont publiées avec l’interface CLI Databricks.

Pour obtenir la liste complète des mises à jour, consultez les notes de publication du référentiel GitHub de l’interface CLI Databricks.

Conseil / Astuce

Pour être informé des nouvelles versions de l’interface CLI Databricks et des fonctionnalités groupées, configurez les notifications GitHub pour le référentiel CLI. Voir à propos des notifications GitHub.

Modèles de bundle personnalisés dans l’espace de travail

29 avril 2026

Les modèles de bundle personnalisés peuvent désormais être mis à la disposition des utilisateurs qui développent des offres groupées dans l’espace de travail. Consultez Configurer un dossier de modèle personnalisé dans l’espace de travail.

Databricks Asset Bundles sont maintenant des bundles d'automatisation déclarative.

16 mars 2026

Les bundles de ressources Databricks ont été renommés en bundles d'Automatisation Déclarative. Découvrez pourquoi les Databricks Asset Bundles ont-ils été renommés en Bundles d'Automatisation Déclarative ?.

Nouvelles ressources pour les projets, branches et points de terminaison Postgres

5 février 2026

Cette fonctionnalité a été publiée avec Databricks CLI 0.287.0.

Vous pouvez maintenant définir des projets, des branches et des endpoints de calcul pour Lakebase Postgres dans votre configuration des bundles d'automatisation déclarative. Consultez postgres_project, postgres_branch et postgres_endpoint.

Déployer sans Terraform

4 décembre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.279.0.

À la première étape de la suppression de la dépendance sur Terrform, une nouvelle databricks bundle migrate commande est désormais disponible pour migrer des bundles afin d’utiliser le nouveau moteur de déploiement direct. Voir Migrer vers le moteur de déploiement direct.

Prise en charge des alertes

4 décembre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.279.0.

Vous pouvez maintenant définir des alertes SQL dans votre configuration de bundles Automation déclaratifs. Consultez l’alerte.

Nouveau modèle d’offre groupée minimale

13 novembre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.277.0.

Un nouveau modèle default-minimal de bundle est désormais disponible. Ce modèle contient uniquement les fichiers projet groupés requis et configure également les variables de catalogue. Cela vous permet de créer rapidement de nouveaux projets de type bundle vides. Consultez les modèles de projet de Bundles d'automatisation déclaratifs.

Modèle de lot mis à jour pour les pipelines déclaratifs Lakeflow Spark

5 novembre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.276.0.

Le default-python modèle de paquet a été mis à jour pour suivre les conventions des pipelines déclaratifs Spark Lakeflow, qui comprennent des pipelines en tant que fichiers sources et pyproject.toml. Le nouveau modèle s’éloigne de l’utilisation de notebooks pour le code source du pipeline.

Pour un didacticiel qui utilise le modèle pour créer un ensemble avec un pipeline, consultez Développer des pipelines avec des ensembles d'automatisation déclaratifs.

Python pour les bundles d'automatisation déclarative est maintenant disponible

27 octobre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.275.0.

Python pour les bundles Automation déclaratives est désormais disponible de manière générale (GA). Cette fonctionnalité vous permet de définir des ressources en Python et de modifier les ressources définies en Python ou YAML pendant le déploiement de l’offre groupée.

Pour plus d’informations sur la prise en charge de Python pour les declarative Automation Bundles, consultez Configuration du bundle dans Python.

Les offres groupées dans l’espace de travail sont en disponibilité générale

15 octobre 2025

Les paquets d'automatisation déclarative dans l'espace de travail sont désormais en disponibilité générale (GA). Cette fonctionnalité vous permet de collaborer avec d’autres utilisateurs de votre organisation pour modifier, valider, tester et déployer des mises à jour de bundle via l’interface utilisateur.

Consultez Collaborer sur les offres groupées dans l’espace de travail.

Modification du comportement pour les chemins de secours

Importante

Les bundles d'automatisation déclaratifs prenaient précédemment en charge un mécanisme de secours pour la résolution des chemins relatifs dans les fichiers de configuration. Cette solution de repli a été supprimée dans Databricks CLI 0.266.0.

Dans les versions précédentes de l’interface CLI, lorsque des ressources ont été définies dans un fichier, mais remplacées dans un autre répertoire, la résolution de chemin d’accès était basée sur le chemin d’accès où la ressource a été définie pour la première fois, ce qui était déroutant et sujette aux erreurs.

Par exemple, lors de l’exécution d’un déploiement groupé pour un bloc-notes dans un travail défini dans resources/job.yml (sous-dossier de la racine) et que le chemin d’accès du bloc-notes a été défini ../src/notebook.py dans un fichier override.yml (à la racine), le chemin d’accès du bloc-notes a d’abord été résolu <BUNDLE_ROOT>/../src/notebook.pyen fonction de l’emplacement du fichier de configuration où le chemin d’accès a été défini. Si ce chemin d’accès n’existe pas, il a résolu le chemin vers <BUNDLE_ROOT>/src/notebook.py, en fonction du chemin d’accès relatif à l’emplacement où le travail a été défini.

Dans Databricks CLI version 0.252 et ultérieure, l’avertissement suivant se produit si le chemin défini n’existe pas :

Warn: path <PATH> is defined relative to the <DIR> directory. Please update the path to be relative to the file where it is defined. The current value will no longer be valid in the next release.

Dans Databricks CLI version 0.266 et ultérieure, une erreur se produit si le chemin spécifié n’existe pas. Seuls les chemins relatifs directs sont pris en charge. Pour déployer votre bundle, vous devez corriger le chemin d’accès.

prise en charge de run_as pour les pipelines

3 septembre 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.267.0.

Le support de niveau supérieur est désormais disponible pour les pipelines déclaratifs Lakeflow Spark. Pour plus d’informations sur les identités d’exécution pour les paquets, consultez Spécifier une identité d’exécution pour un flux de travail de Paquets d'Automatisation Déclarative.

Prise en charge de la base de données Lakebase

21 août 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.265.0.

Vous pouvez maintenant définir des instances et catalogues de base de données Lakebase dans votre configuration de bundles Automation déclaratifs. Consultez database_instance et database_catalog.

Configuration du bundle de nouveaux scripts

16 juillet 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.259.0.

Vous pouvez maintenant définir des scripts dans votre configuration de bundle et les exécuter à l’aide bundle run des informations d’identification d’authentification configurées d’un bundle. Consultez Exécuter des scripts et des scripts.

Le modèle python par défaut utilise désormais uv

2 juillet 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.258.0.

Le modèle de bundle python par défaut nécessite désormais que uv soit installé et utilise pyproject.toml dans l'objectif dev afin de créer des artefacts whl. Si l’initialisation de bundle est configurée pour utiliser le calcul classique, la artifacts_dynamic_version présélection de déploiement pour la dev cible est activée. Consultez Préréglages personnalisés.

Le modèle python par défaut utilise par défaut serverless

25 juin 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.257.0.

Lors de l’initialisation d’un bundle avec le modèle de bundle python par défaut, vous êtes maintenant invité à confirmer si vous souhaitez configurer le bundle pour utiliser le calcul serverless pour les exécutions de travaux et de pipelines. Pour plus d’informations sur les modèles de bundle, consultez Modèles de projet de Bundles d'Automatisation Déclaratifs.

Nouvelle présélection de déploiement artifacts_dynamic_version

18 juin 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.256.0.

Une nouvelle présélection artifacts_dynamic_version de déploiement est désormais disponible. Ce préréglage personnalisé permet de mettre à jour dynamiquement la version des artefacts whl pendant le déploiement. Consultez Préréglages personnalisés.

Les bundles dans l’espace de travail sont en version préliminaire publique

19 mai 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.250.0.

La collaboration sur les offres groupées Automation déclaratives avec d’autres utilisateurs de votre organisation est désormais plus facile avec les offres groupées dans l’espace de travail, ce qui permet aux utilisateurs de l’espace de travail de modifier, valider, tester et déployer des mises à jour de bundle via l’interface utilisateur.

Consultez Collaborer sur les offres groupées dans l’espace de travail.

Prise en charge de l’exécution de scripts inline

30 avril 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.250.0.

Vous pouvez maintenant exécuter des scripts dans le même contexte d’authentification qu’un bundle à l’aide de la databricks bundle run commande. Consultez Exécuter des scripts.

Python pour les modules d'automatisation déclarative est en préversion publique

16 avril 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.248.0.

Les lots Python pour l'Automation déclarative sont désormais disponibles en préversion publique. Cette fonctionnalité étend les offres groupées afin que vous puissiez définir des travaux en tant que code Python, créer dynamiquement des travaux à l’aide de métadonnées et modifier des travaux définis dans YAML ou Python pendant le déploiement de bundles. Pour plus d’informations et pour commencer à utiliser Python pour les bundles Automation déclaratifs, consultez La configuration de bundle dans Python.

Support de liaison/dissociation pour quality_monitor et model_serving_endpoint

9 avril 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.247.0.

Les commandes bind et unbind sont désormais prises en charge pour le quality_monitor et le model_serving_endpoint. Cela signifie que vous pouvez lier ces ressources définies par l’offre groupée à des moniteurs de qualité existants et à des points de terminaison de service de modèle dans l’espace de travail Azure Databricks afin qu’elles deviennent gérées par des bundles Automation déclaratifs. Pour plus d’informations, consultez Databricks bundle deployment bind.

Gestion dynamique des versions pour roues

26 mars 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.245.0.

Un nouveau paramètre dynamic_version pour le mappage artifacts permet aux bundles de mettre à jour la version de la roue en fonction de l'horodatage du fichier de la roue. Le nouveau code peut ensuite être déployé sans avoir à mettre à jour la version dans setup.py ou pyproject.toml. Ce paramètre n’est valide que lorsqu’il type est défini sur whl. Consultez les artefacts.

Prise en charge de lier/dissocier pour les ressources supplémentaires

26 mars 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.245.0.

Les commandes liées à bind et unbind sont désormais prises en charge pour les ressources du cluster, du tableau de bord, du registered_model et du volume. Cela signifie que vous pouvez lier ces ressources définies par bundle à des clusters, tableaux de bord, modèles inscrits et volumes existants dans l’espace de travail Azure Databricks afin qu’elles deviennent gérées par des bundles Automation déclaratifs. Pour plus d’informations, consultez Databricks bundle deployment bind.

Prise en charge de lier/dissocier pour les schémas

5 mars 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.243.0.

Les commandes bind et unbind sont désormais prises en charge pour la ressource du schéma . Ces commandes vous permettent de lier des ressources définies par l’offre groupée à des ressources existantes dans l’espace de travail Azure Databricks afin qu’elles soient gérées par des bundles Automation déclaratifs. Pour plus d’informations, consultez Databricks bundle deployment bind.

Prise en charge des applications

16 janvier 2025

Cette fonctionnalité a été publiée avec Databricks CLI 0.239.0.

Vous pouvez désormais gérer les déploiements Databricks Apps à l’aide de bundles Automation déclaratifs en définissant une ressource d’application dans votre configuration de bundle. Voir l’application.

Prise en charge des volumes

5 décembre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.236.0.

Vous pouvez maintenant créer des volumes Unity Catalog en utilisant des lots d'automatisation déclaratifs, en définissant une ressource de volume dans la configuration de votre lot. Consultez Volume (Unity Catalog).

Recherche de variables pour les destinations de notification

5 décembre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.236.0.

Les recherches de variables prennent désormais en charge les destinations de notification. Voir Récupérer la valeur d’ID d’un objet.

Prise en charge des tableaux de bord

30 octobre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.232.0.

Les tableaux de bord IA/BI peuvent désormais être gérés dans la configuration de bundle à l’aide du nouveau type de ressource de tableau de bord. Vous pouvez générer la configuration du tableau de bord à l'aide de bundle generate dashboard et garder votre version locale et distante d'un tableau de bord synchronisées avec les options --force et --watch. Consultez tableau de bord et générer le bundle Databricks.

Pour plus d’informations sur les tableaux de bord IA/BI, consultez Tableaux de bord.

Nouvelle commande récapitulative d'ensemble

23 octobre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.231.0.

Une nouvelle bundle summary commande a été ajoutée. Cette commande génère un résumé de l’identité et des ressources d’un bundle, y compris des liens profonds pour les ressources afin que vous puissiez facilement accéder à la ressource dans l’espace de travail Databricks. Consultez le résumé de l’offre groupée databricks.

Avertissement pour les offres groupées déployées sur Partagé avec des autorisations en conflit

23 octobre 2024

Importante

Il s’agit d’un changement comportemental.

Cette modification a été publiée avec Databricks CLI 0.231.0.

Un avertissement se produit maintenant lorsqu’un bundle est déployé dans le /Workspace/Shared dossier, accessible par tous les utilisateurs, mais que le niveau permissions supérieur défini pour le bundle est en conflit avec cela. Modifiez les autorisations définies pour le bundle ou déplacez le bundle hors du /Workspace/Shared dossier.

Pour modifier les autorisations d’un bundle, consultez autorisations.

Pour déplacer le bundle hors du /Workspace/Shared dossier, modifiez la workspace.root_path configuration du bundle pour qu’il pointe vers un nouvel emplacement, puis redéployez le bundle. Supprimez l’ancien dossier de bundle à l’aide de l’interface utilisateur ou en exécutant databricks fs rm.

Les chemins d’accès à l’espace de travail sont désormais automatiquement préfixés

9 octobre 2024

Importante

Il s’agit d’un changement comportemental.

Cette modification a été publiée avec Databricks CLI 0.230.0.

Les chemins d’accès de l’espace de travail sont désormais automatiquement préfixés par /Workspace. En outre, toutes les utilisations de chaînes de chemin d’accès telles que /Workspace/${workspace.root_path}/... dans la configuration du pack sont automatiquement remplacées par ${workspace.root_path}/..., ce qui va générer un avertissement comme élément de bundle validate.

Si vous avez spécifié un workspace.root_path, workspace.artifact_path ou workspace.file_path personnalisé, les bundles d’automatisation déclaratifs le préfixeront automatiquement avec /Workspace. Cependant, si vous utilisez l'une de ces variables (par exemple, my_config_path: /Workspace/${workspace.file_path}/config), vous devez mettre à jour ces entrées pour supprimer le préfixe /Workspace afin d'éviter l’avertissement.

Si vous transmettez l’une de ces variables et que vous les préfixez dans votre code, vous devez mettre à jour votre code pour ne pas effectuer cette opération.

Cette modification est requise, car à l’origine, lorsque le système de fichiers d’espace de travail a été rooté sur / et que les répertoires de base étaient sous /Users, vous deviez utiliser les chemins d’accès à l’espace de travail via l’API REST Databricks pour avoir un accès direct. Pour accéder aux chemins de l'espace de travail à partir de votre code, vous pouvez utiliser le chemin du fichier /Workspace, et les répertoires personnels étaient également disponibles sous /Workspace/Users. Pour éviter cette dualité des chemins d’espace de travail, ainsi que l’ambiguïté entre les chemins d’accès de l’espace de travail et les chemins du catalogue /Volumes Unity, tous les chemins d’espace de travail sont préfixés par /Workspace.

Prise en charge de la création de clusters à usage général

1er octobre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.229.0.

Vous pouvez maintenant créer des clusters à usage unique dans votre configuration de bundle à l’aide du nouveau type de ressource de cluster. Voir cluster.

Invite à la création de pipelines déclaratifs pour Nouveau Lakeflow Spark et drapeau d’approbation automatique

5 septembre 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.228.0.

Une invite s’affiche maintenant lorsque des modifications de la configuration du bundle entraînent la recréation d’un pipeline. Vous pouvez ignorer l’invite en spécifiant l’indicateur --auto-approve.

Ajout de la prise en charge de la ressource de schéma Unity Catalog

31 juillet 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.225.0.

Les schémas de catalogue Unity peuvent désormais être définis dans votre configuration d’offre groupée. Consultez le schéma (catalogue Unity).

Commandes groupées dans le terminal Web

4 juillet 2024

Cette fonctionnalité a été publiée avec Databricks CLI 0.223.0.

Vous pouvez désormais interagir avec des offres groupées à l’aide de Databricks CLI à partir du terminal Web. Pour plus d’informations sur l’utilisation du terminal web, consultez Exécuter des commandes shell dans le terminal web Azure Databricks.

Ajout de la prise en charge des variables complexes

26 juin 2024

Cette fonctionnalité a été publiée avec Databricks CLI v0.222.0.

Les bundles Automation déclaratifs prennent désormais en charge des variables complexes. Consultez Définir une variable complexe.

Les bundles d'automatisation déclaratives sont généralement disponibles

23 avril 2024

Avec la version 0.218.0 de Databricks CLI, les paquets d'automatisation déclarative sont désormais généralement disponibles.