Compartilhar via


trigger (DataStreamWriter)

Define o gatilho para a consulta de streaming. Se não for definido, a consulta será executada o mais rápido possível, equivalente a processingTime='0 seconds'. Somente um parâmetro de gatilho pode ser definido por vez.

Para obter mais informações, consulte Configurar intervalos de gatilho de streaming estruturado.

Sintaxe

trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)

Parâmetros

Parâmetro Tipo Descrição
processingTime str, opcional Uma cadeia de caracteres de intervalo de tempo de processamento (por exemplo, '5 seconds', ). '1 minute' Executa uma consulta de microbatch periodicamente com base no tempo de processamento.
once bool, opcional Se True, processa apenas um lote de dados e, em seguida, encerra a consulta.
continuous str, opcional Uma cadeia de caracteres de intervalo de tempo (por exemplo, '5 seconds'). Executa uma consulta contínua com um determinado intervalo de ponto de verificação.
availableNow bool, opcional Se True, processar todos os dados disponíveis em vários lotes, encerrará a consulta.
realTime str, opcional Uma cadeia de caracteres de duração do lote (por exemplo, '5 seconds'). Executa uma consulta de modo em tempo real com lotes na duração especificada.

Devoluções

DataStreamWriter

Exemplos

df = spark.readStream.format("rate").load()

Disparar a execução a cada 5 segundos:

df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Disparar a execução contínua a cada 5 segundos:

df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Processar todos os dados disponíveis em vários lotes:

df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>

Disparar a execução em tempo real a cada 5 segundos:

df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>