trigger (DataStreamWriter)

Hiermee stelt u de trigger voor de streamingquery in. Als deze niet is ingesteld, wordt de query zo snel mogelijk uitgevoerd, gelijk aan processingTime='0 seconds'. Er kan slechts één triggerparameter tegelijk worden ingesteld.

Zie Triggerintervallen voor gestructureerd streamen configureren voor meer informatie.

Syntaxis

trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)

Parameterwaarden

Kenmerk Typ Beschrijving
processingTime str, optioneel Een tekenreeks voor het verwerkingstijdinterval (bijvoorbeeld '5 seconds', '1 minute'). Voert periodiek een microbatchquery uit op basis van de verwerkingstijd.
once bool, optioneel Als True, verwerkt slechts één batch met gegevens, beëindigt de query.
continuous str, optioneel Een tijdsintervaltekenreeks (bijvoorbeeld '5 seconds'). Voert een continue query uit met een bepaald controlepuntinterval.
availableNow bool, optioneel Als Truealle beschikbare gegevens in meerdere batches worden verwerkt, wordt de query beëindigd.
realTime str, optioneel Een tekenreeks voor batchduur (bijvoorbeeld '5 seconds'). Voert een realtime-modusquery uit met batches op de opgegeven duur.

Retouren

DataStreamWriter

Examples

df = spark.readStream.format("rate").load()

Triggeruitvoering elke 5 seconden:

df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Doorlopende uitvoering elke 5 seconden activeren:

df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Alle beschikbare gegevens in meerdere batches verwerken:

df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>

Activeer de realtime uitvoering elke 5 seconden:

df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>