Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Uma transformação para qualquer tipo que se particione com base num hash da coluna de entrada.
Observação
Esta função só pode ser usada em combinação com DataFrameWriterV2.partitionedBy o método.
Sintaxe
from pyspark.sql.functions import partitioning
partitioning.bucket(numBuckets, col)
Parâmetros
| Parâmetro | Tipo | Description |
|---|---|---|
numBuckets |
pyspark.sql.Column ou int |
O número de baldes. |
col |
pyspark.sql.Column ou str |
Data alvo ou coluna de carimbo temporal para trabalhar. |
Examples
from pyspark.sql.functions import partitioning
df.writeTo("catalog.db.table").partitionedBy(
partitioning.bucket(42, "ts")
).createOrReplace()