Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Particiona a saída pelas colunas fornecidas no sistema de arquivos. Se especificado, a saída será colocada no sistema de arquivos semelhante ao esquema de particionamento do Hive.
Sintaxe
partitionBy(*cols)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
*cols |
str ou lista | Nomes das colunas por onde particionar. |
Devoluções
DataFrameWriter
Exemplos
Escreva um DataFrame em um arquivo Parquet de maneira particionada e leia-o novamente.
import tempfile, os
with tempfile.TemporaryDirectory(prefix="partitionBy") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}, {"age": 120, "name": "Ruifeng Zheng"}]
).write.partitionBy("name").mode("overwrite").format("parquet").save(d)
spark.read.parquet(d).sort("age").show()
# +---+-------------+
# |age| name|
# +---+-------------+
# |100| Alice|
# |120|Ruifeng Zheng|
# +---+-------------+
# Read one partition as a DataFrame.
spark.read.parquet(f"{d}{os.path.sep}name=Alice").show()
# +---+
# |age|
# +---+
# |100|
# +---+