Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Establece el desencadenador de la consulta de streaming. Si no se establece, la consulta se ejecuta lo más rápido posible, equivalente a processingTime='0 seconds'. Solo se puede establecer un parámetro de desencadenador a la vez.
Para obtener más información, consulte Configuración de intervalos de desencadenador de Structured Streaming.
Sintaxis
trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)
Parámetros
| Parámetro | Tipo | Descripción |
|---|---|---|
processingTime |
str, opcional | Cadena de intervalo de tiempo de procesamiento (por ejemplo, '5 seconds', '1 minute'). Ejecuta una consulta de microbatch periódicamente en función del tiempo de procesamiento. |
once |
bool, opcional | Si Truees , procesa solo un lote de datos y finaliza la consulta. |
continuous |
str, opcional | Cadena de intervalo de tiempo (por ejemplo, '5 seconds'). Ejecuta una consulta continua con un intervalo de punto de comprobación determinado. |
availableNow |
bool, opcional | Si Truees , procesa todos los datos disponibles en varios lotes y finaliza la consulta. |
realTime |
str, opcional | Cadena de duración por lotes (por ejemplo, '5 seconds'). Ejecuta una consulta en modo en tiempo real con lotes durante la duración especificada. |
Devoluciones
DataStreamWriter
Ejemplos
df = spark.readStream.format("rate").load()
Desencadenar la ejecución cada 5 segundos:
df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>
Desencadene la ejecución continua cada 5 segundos:
df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>
Procese todos los datos disponibles en varios lotes:
df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>
Desencadene la ejecución en tiempo real cada 5 segundos:
df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>