Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Divide aleatoriamente esse DataFrame com os pesos fornecidos.
Sintaxe
randomSplit(weights: List[float], seed: Optional[int] = None)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
weights |
lista | lista de duplos como pesos com os quais dividir o DataFrame. Os pesos serão normalizados se não somarem até 1,0. |
seed |
int, opcional | A semente para amostragem. |
Devoluções
lista: Lista de DataFrames.
Exemplos
from pyspark.sql import Row
df = spark.createDataFrame([
Row(age=10, height=80, name="Alice"),
Row(age=5, height=None, name="Bob"),
Row(age=None, height=None, name="Tom"),
Row(age=None, height=None, name=None),
])
splits = df.randomSplit([1.0, 2.0], 24)
splits[0].count()
# 2
splits[1].count()
# 2