Informazioni su notebook e pipeline di Azure Databricks
In Azure Databricks è possibile usare i notebook per eseguire codice scritto in Python, Scala, SQL e altri linguaggi per inserire ed elaborare i dati. I notebook offrono un'interfaccia interattiva in cui è possibile eseguire singole celle di codice e usare Markdown per includere note e annotazioni.
In molte soluzioni di ingegneria dei dati, il codice scritto e testato in modo interattivo può essere incorporato in un carico di lavoro di elaborazione dati automatizzato. In Azure, tali carichi di lavoro vengono spesso implementati come pipeline in Azure Data Factory, in cui una o più attività vengono usate per orchestrare una serie di attività che possono essere eseguite su richiesta, a intervalli pianificati o in risposta a un evento ,ad esempio i nuovi dati caricati in una cartella in un data lake. Azure Data Factory supporta un'attività notebook che può essere usata per automatizzare l'esecuzione automatica di un notebook in un'area di lavoro di Azure Databricks.
Nota
La stessa attività notebook è disponibile nelle pipeline compilate in Azure Synapse Analytics.