conf

Interface de configuration du runtime pour Spark.

Il s’agit de l’interface par laquelle l’utilisateur peut obtenir et définir toutes les configurations Spark et Hadoop pertinentes pour Spark SQL. Lorsque vous obtenez la valeur d’une configuration, cette valeur est définie par défaut dans le sous-jacent SparkContext, le cas échéant.

Syntaxe

conf

Retours

pyspark.sql.conf.RuntimeConfig

Exemples

spark.conf

# Set a runtime configuration for the session.
spark.conf.set("key", "value")
spark.conf.get("key")
# 'value'