Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Returnera en ny DataFrame som innehåller rader i både den här dataramen och en annan DataFrame samtidigt som dubbletter bevaras.
Syntax
intersectAll(other: "DataFrame")
Parameters
| Parameter | Type | Beskrivning |
|---|---|---|
other |
DataFrame | En annan DataFrame som måste kombineras. |
Retur
DataFrame: Kombinerad dataram.
Notes
Detta motsvarar INTERSECT ALL i SQL. Som standard i SQL löser den här funktionen kolumner efter position (inte efter namn).
Exempel
df1 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3), ("c", 4)], ["C1", "C2"])
df2 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3)], ["C1", "C2"])
result_df = df1.intersectAll(df2).sort("C1", "C2")
result_df.show()
# +---+---+
# | C1| C2|
# +---+---+
# | a| 1|
# | a| 1|
# | b| 3|
# +---+---+
df1 = spark.createDataFrame([(1, "A"), (2, "B")], ["id", "value"])
df2 = spark.createDataFrame([(2, "B"), (3, "C")], ["id", "value"])
result_df = df1.intersectAll(df2).sort("id", "value")
result_df.show()
# +---+-----+
# | id|value|
# +---+-----+
# | 2| B|
# +---+-----+