Utiliser des paramètres dans un carnet

Effectué

Vous pouvez utiliser des paramètres pour passer des valeurs de variable à un notebook à partir du pipeline. Le paramétrage permet une plus grande flexibilité que l’utilisation de valeurs codées en dur dans le code du notebook.

Utilisation de paramètres dans un notebook

Pour définir et utiliser des paramètres dans un notebook, utilisez la bibliothèque dbutils.widgets dans votre code de notebook.

Par exemple, le code Python suivant définit une variable nommée dossier et affecte une valeur par défaut de données:

dbutils.widgets.text("folder", "data")

Pour récupérer une valeur de paramètre, utilisez la fonction obtenir, comme suit :

folder = dbutils.widgets.get("folder")

La fonction obtenir récupère la valeur du paramètre spécifique passé au notebook. Si aucun paramètre de ce type n’a été passé, il obtient la valeur par défaut de la variable que vous avez déclarée précédemment.

Passage de valeurs de sortie

En plus d’utiliser les paramètres qui peuvent être passés en entrée à un notebook, vous pouvez passer des valeurs de sortie à l’application appelante en utilisant la fonction notebook.exit, comme illustré ici :

path = "dbfs:/{0}/products.csv".format(folder)
dbutils.notebook.exit(path)

Définition des valeurs de paramètre dans un pipeline

Pour transmettre des valeurs de paramètre à une activité de Notebook, ajoutez chaque paramètre aux paramètres de base de l’activité, comme illustré ici :

Capture d’écran d’une activité Notebook avec un paramètre de dossier.

Dans cet exemple, la valeur du paramètre est explicitement spécifiée en tant que propriété de l’activité Notebook. Vous pouvez également définir un paramètre de de pipeline et affecter sa valeur dynamiquement au paramètre de base de l’activité Notebook ; ajout d’un niveau d’abstraction supplémentaire.

Conseil / Astuce

Pour plus d’informations sur l’utilisation de paramètres dans Azure Data Factory, consultez Guide pratique pour utiliser des paramètres, des expressions et des fonctions dans Azure Data Factory dans la documentation Azure Data Factory.