Compartilhar via


rangeBetween (Janela)

Cria um WindowSpec com os limites de quadro definidos, de start (inclusivo) a end (inclusivo).

Ambos start e end são relativos à linha atual. Por exemplo, 0 significa "linha atual", -1 significa uma antes da linha atual e 5 significa cinco após a linha atual.

Um limite baseado em intervalo é baseado no valor real das ORDER BY expressões. Um deslocamento altera o valor da ORDER BY expressão , por exemplo, se o valor atual ORDER BY for 10 e o deslocamento de limite inferior for -3, o limite inferior resultante será 7. Por isso, os quadros baseados em intervalo exigem exatamente uma ORDER BY expressão com um tipo de dados numérico, a menos que o deslocamento não seja associado.

Sintaxe

Window.rangeBetween(start, end)

Parâmetros

Parâmetro Tipo Descrição
start INT Início do limite, inclusive. O quadro será desvinculado se for Window.unboundedPreceding, ou qualquer valor menor ou igual a max(-sys.maxsize, -9223372036854775808).
end INT Fim do limite, inclusivo. O quadro será desvinculado se for Window.unboundedFollowing, ou qualquer valor maior ou igual a min(sys.maxsize, 9223372036854775807).

Devoluções

WindowSpec

Observações

Use Window.unboundedPrecedinge Window.unboundedFollowingespecifique Window.currentRow valores de limite especiais em vez de usar valores integrais diretamente.

Exemplos

from pyspark.sql import Window, functions as sf

df = spark.createDataFrame(
    [(1, "a"), (1, "a"), (2, "a"), (1, "b"), (2, "b"), (3, "b")], ["id", "category"])

# Calculate the sum of id where the id value falls within [current id, current id + 1]
# in each category partition.
window = Window.partitionBy("category").orderBy("id").rangeBetween(Window.currentRow, 1)
df.withColumn("sum", sf.sum("id").over(window)).sort("id", "category").show()
# +---+--------+---+
# | id|category|sum|
# +---+--------+---+
# |  1|       a|  4|
# |  1|       a|  4|
# |  1|       b|  3|
# |  2|       a|  2|
# |  2|       b|  5|
# |  3|       b|  3|
# +---+--------+---+