Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Retorna um novo DataFrame com cada partição classificada pelas colunas especificadas.
Sintaxe
sortWithinPartitions(*cols: Union[int, str, Column, List[Union[int, str, Column]]], **kwargs: Any)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
cols |
int, str, list ou Column, opcional | lista de nomes de colunas ou colunas ou ordinais de coluna para classificar. |
ascending |
bool ou lista, opcional, true padrão | booliano ou lista de boolianos. Classificação crescente versus decrescente. Especifique a lista para vários pedidos de classificação. Se uma lista for especificada, o comprimento da lista deverá ser igual ao tamanho da cols. |
Devoluções
DataFrame: DataFrame classificado por partições.
Observações
Um ordinal de coluna começa a partir de 1, que é diferente do baseado em __getitem__0. Se um ordinal de coluna for negativo, isso significa classificar decrescente.
Exemplos
from pyspark.sql import functions as sf
df = spark.createDataFrame([(2, "Alice"), (5, "Bob")], schema=["age", "name"])
df.sortWithinPartitions("age", ascending=False)
# DataFrame[age: bigint, name: string]
df.coalesce(1).sortWithinPartitions(1).show()
# +---+-----+
# |age| name|
# +---+-----+
# | 2|Alice|
# | 5| Bob|
# +---+-----+
df.coalesce(1).sortWithinPartitions(-1).show()
# +---+-----+
# |age| name|
# +---+-----+
# | 5| Bob|
# | 2|Alice|
# +---+-----+