Utiliser une activité Notebook dans un pipeline

Effectué

Une fois que vous avez créé un service lié dans Azure Data Factory pour votre espace de travail Azure Databricks, vous pouvez l’utiliser pour définir la connexion pour une activité Notebook dans un pipeline.

Pour utiliser une activité Notebook, créez un pipeline et à partir de la catégorie Databricks, ajoutez une activité Notebook à l’aire du concepteur de pipelines.

Capture d’écran d’un pipeline avec une activité Notebook.

Utilisez les propriétés suivantes de l’activité Notebook pour la configurer :

Catégorie Réglage Descriptions
Généralités Nom Nom unique de l’activité.
Descriptif Description explicite.
Délai d'attente Durée pendant laquelle l’activité doit s’exécuter avant l’annulation automatique.
Nouvelle tentatives Combien de fois Azure Data Factory doit essayer avant d’échouer.
Intervalle avant nouvelle tentative Délai d’attente avant de réessayer.
Entrée et sortie sécurisées Détermine si les valeurs d’entrée et de sortie sont journalisées.
Azure Databricks Service Azure Databricks lié Service lié pour l’espace de travail Azure Databricks contenant le notebook.
Paramètres Chemin d’accès du notebook Chemin d’accès au fichier de notebook dans l’espace de travail.
Paramètres de base Utilisé pour passer des paramètres au notebook.
Ajouter des bibliothèques Bibliothèques de code requises qui ne sont pas installées par défaut.
propriétés utilisateur Propriétés personnalisées définies par l’utilisateur.

Exécution d’un pipeline

Lorsque le pipeline contenant l’activité Notebook est publié, vous pouvez l’exécuter en définissant un déclencheur. Vous pouvez ensuite surveiller les exécutions de pipeline dans la section Monitor d’Azure Data Factory Studio.