Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Enregistre le contenu d’une source de DataFrame données. La source de données est spécifiée par format et un ensemble de options. Si format elle n’est pas spécifiée, la source de données par défaut configurée par spark.sql.sources.default est utilisée.
Syntaxe
save(path=None, format=None, mode=None, partitionBy=None, **options)
Paramètres
| Paramètre | Type | Description |
|---|---|---|
path |
str, facultatif | Chemin d’accès dans un système de fichiers pris en charge par Hadoop. |
format |
str, facultatif | Format utilisé pour enregistrer. |
mode |
str, facultatif | Comportement quand des données existent déjà. Les valeurs acceptées sont 'append', , 'overwrite''ignore'et 'error' ou 'errorifexists' (par défaut). |
partitionBy |
list, facultatif | Noms des colonnes de partitionnement. |
**options |
dictionnaire | Options de chaîne supplémentaires. |
Retours
Aucun
Exemples
Écrivez un DataFrame dans un fichier JSON et lisez-le.
import tempfile
with tempfile.TemporaryDirectory(prefix="save") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.mode("overwrite").format("json").save(d)
spark.read.format('json').load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+