Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Conseil / Astuce
Microsoft Fabric Data Warehouse est un entrepôt relationnel à l’échelle de l’entreprise sur une base de lac de données, avec une architecture future, une IA intégrée et de nouvelles fonctionnalités. Si vous débutez avec l'entreposage de données, commencez par Fabric Data Warehouse. Les charges de travail de pool SQL existantes dédicées peuvent être mises à niveau vers Fabric pour accéder à de nouvelles fonctionnalités dans la science des données, l’analytique en temps réel et la création de rapports.
Le pool SQL serverless peut synchroniser automatiquement les métadonnées à partir d’Apache Spark. Une base de données de pool SQL sans serveur sera créée pour chaque base de données existante dans les pools Apache Spark sans serveur.
Pour chaque table externe Spark basée sur Parquet ou CSV et située dans stockage Azure, une table externe est créée dans une base de données de pool SQL serverless. Par conséquent, vous pouvez arrêter vos pools Spark et toujours interroger des tables externes Spark à partir d’un pool SQL serverless.
Lorsqu’une table est partitionnée dans Spark, les fichiers dans le stockage sont organisés par dossiers. Le pool SQL serverless utilise les métadonnées de partition et cible uniquement les dossiers et fichiers pertinents pour votre requête.
La synchronisation des métadonnées est automatiquement configurée pour chaque pool Apache Spark serverless approvisionné dans l’espace de travail Azure Synapse. Vous pouvez commencer à interroger instantanément des tables externes Spark.
Chaque table externe Spark Parquet ou CSV située dans stockage Azure est associée à une table externe dans un schéma dbo correspondant à une base de données de pool SQL sans serveur.
Pour les requêtes de table externe Spark, exécutez une requête qui cible un [spark_table]. Avant d’exécuter l’exemple suivant, vérifiez que vous disposez d’un accès correct au compte de stockage où se trouvent les fichiers.
SELECT * FROM [db].dbo.[spark_table]
Mappage des types de données Apache Spark vers des types de données SQL
Pour plus d’informations sur le mappage des types de données Apache Spark aux types de données SQL, consultez Azure Synapse Analytics tables de métadonnées partagées.
Étapes suivantes
Consultez l'article Storage Access Control pour en savoir plus sur le contrôle d'accès au stockage.