Zusammenfassung
Lakeflow Declarative Pipelines sind ein leistungsstarkes Framework von Databricks, das die Konstruktion und Verwaltung von zuverlässigen Datenpipelines für Big Data- und Machine Learning-Anwendungen vereinfacht. Mithilfe von Lakeflow Declarative Pipelines können Entwicklungsfachkräfte Datentransformationen deklarativ in Python oder SQL definieren, die das System automatisch orchestriert und verwaltet.
In diesem Modul haben Sie Folgendes gelernt:
- Beschreiben von Lakeflow Declarative Pipelines
- Erfassen von Daten in materialisierte Ansichten und Streamingtabellen
- Verwenden von Lakeflow Declarative Pipelines für die Echtzeitdatenverarbeitung