Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Interface de configuration du runtime pour Spark.
Il s’agit de l’interface par laquelle l’utilisateur peut obtenir et définir toutes les configurations Spark et Hadoop pertinentes pour Spark SQL. Lorsque vous obtenez la valeur d’une configuration, cette valeur est définie par défaut dans le sous-jacent SparkContext, le cas échéant.
Syntaxe
conf
Retours
pyspark.sql.conf.RuntimeConfig
Exemples
spark.conf
# Set a runtime configuration for the session.
spark.conf.set("key", "value")
spark.conf.get("key")
# 'value'