parquet (DataStreamReader)

Charge un flux de fichiers Parquet et retourne le résultat sous forme de DataFrame.

Syntaxe

parquet(path, **options)

Paramètres

Paramètre Type Description
path str Chemin d’accès dans n’importe quel système de fichiers pris en charge par Hadoop.

Retours

DataFrame

Exemples

Chargez un flux à partir d’un fichier Parquet temporaire :

import tempfile
import time
with tempfile.TemporaryDirectory(prefix="parquet") as d:
    spark.range(10).write.mode("overwrite").format("parquet").save(d)
    q = spark.readStream.schema(
        "id LONG").parquet(d).writeStream.format("console").start()
    time.sleep(3)
    q.stop()