Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article contient des liens vers toutes les sources de données différentes dans Azure qui peuvent être connectées à Azure Databricks. Suivez les exemples de ces liens pour extraire des données à partir des sources de données Azure (par exemple, Stockage Blob Azure, Azure Event Hubs, etc.) dans un cluster Azure Databricks, puis exécutez des travaux analytiques sur ces données.
Prérequis
- Vous devez disposer d’un espace de travail Azure Databricks et d’un cluster Spark. Suivez les instructions fournies dans le guide de démarrage.
Sources de données pour Azure Databricks
La liste suivante indique les sources de données dans Azure que vous pouvez utiliser avec Azure Databricks. Pour obtenir la liste complète des sources de données que vous pouvez utiliser avec Azure Databricks, consultez Data sources for Azure Databricks (Sources de données d’Azure Databricks).
-
Cette rubrique fournit l’API DataFrame pour la connexion aux bases de données SQL à l’aide de JDBC, et indique comment contrôler le parallélisme des lectures via l’interface JDBC. Ce sujet fournit des exemples détaillés utilisant l'API Scala, avec des exemples abrégés en Python et Spark SQL à la fin.
-
Ce lien contient des exemples d’utilisation de l'entité de service Microsoft Entra ID (anciennement Azure Active Directory) pour authentifier auprès d'Azure Data Lake Storage. Elle fournit également des instructions pour accéder aux données dans Azure Data Lake Storage à partir d’Azure Databricks.
-
Ce lien fournit des exemples sur la façon d’accéder directement au Stockage Blob Azure depuis Azure Databricks en utilisant la clé d’accès ou le SAS pour un conteneur donné. Cette rubrique fournit également des informations sur la façon d’accéder à Stockage Blob Azure à partir d’Azure Databricks à l’aide de l’API RDD.
-
Ce lien fournit des instructions sur l’utilisation du connecteur Kafka à partir d’Azure Databricks pour accéder aux données dans Azure Event Hubs.
-
Ce lien fournit des instructions sur la façon d’interroger des données dans Azure Synapse.
Étapes suivantes
Pour en savoir plus sur les sources à partir desquelles vous pouvez importer des données dans Azure Databricks, consultez Spark Data Sources (Sources de données Spark)