Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Mapeia um iterador de lotes no DataFrame atual usando uma função nativa Python que é executada em pyarrow.RecordBatchs como entrada e saída e retorna o resultado como um DataFrame.
Sintaxe
mapInArrow(func: "ArrowMapIterFunction", schema: Union[StructType, str], barrier: bool = False, profile: Optional[ResourceProfile] = None)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
func |
função | uma função nativa Python que usa um iterador de pyarrow.RecordBatchs e gera um iterador de pyarrow.RecordBatchs. |
schema |
DataType ou str | o tipo de retorno do func PySpark. O valor pode ser um pyspark.sql.types.DataType objeto ou uma cadeia de caracteres de tipo formatada em DDL. |
barrier |
bool, opcional, false padrão | Use a execução do modo de barreira, garantindo que todos os Python trabalhadores no estágio sejam iniciados simultaneamente. |
profile |
ResourceProfile, opcional | O ResourceProfile opcional a ser usado para mapInArrow. |
Devoluções
DataFrame
Exemplos
import pyarrow as pa
df = spark.createDataFrame([(1, 21), (2, 30)], ("id", "age"))
def filter_func(iterator):
for batch in iterator:
pdf = batch.to_pandas()
yield pa.RecordBatch.from_pandas(pdf[pdf.id == 1])
df.mapInArrow(filter_func, df.schema).show()
# +---+---+
# | id|age|
# +---+---+
# | 1| 21|
# +---+---+
df.mapInArrow(filter_func, df.schema, barrier=True).collect()
# [Row(id=1, age=21)]