Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Anger lagringsnivån så att innehållet i DataFrame bevaras mellan åtgärder efter första gången det beräknas. Detta kan bara användas för att tilldela en ny lagringsnivå om DataFrame inte har någon lagringsnivå inställd ännu. Om ingen lagringsnivå har angetts är standardvärdet (MEMORY_AND_DISK_DESER).
Syntax
persist(storageLevel: StorageLevel = StorageLevel.MEMORY_AND_DISK_DESER)
Parameters
| Parameter | Type | Beskrivning |
|---|---|---|
storageLevel |
StorageLevel | Lagringsnivå som ska anges för beständighet. Standardvärdet är MEMORY_AND_DISK_DESER. |
Retur
DataFrame: Sparad dataram.
Notes
Standardlagringsnivån har ändrats till MEMORY_AND_DISK_DESER att matcha Scala i 3.0.
Cachelagrade data delas över alla Spark-sessioner i klustret.
Exempel
df = spark.range(1)
df.persist()
# DataFrame[id: bigint]
df.explain()
# == Physical Plan ==
# InMemoryTableScan ...
from pyspark.storagelevel import StorageLevel
df.persist(StorageLevel.DISK_ONLY)
# DataFrame[id: bigint]