PySpark - 获取组中每一行的行号
PySpark - get row number for each row in a group
使用 pyspark,我希望能够对 spark 数据框进行分组,对组进行排序,然后提供行号。所以
Group Date
A 2000
A 2002
A 2007
B 1999
B 2015
会变成
Group Date row_num
A 2000 0
A 2002 1
A 2007 2
B 1999 0
B 2015 1
使用window函数:
from pyspark.sql.window import *
from pyspark.sql.functions import row_number
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date")))
公认的解决方案几乎是正确的。这是基于问题中要求的输出的解决方案:
df = spark.createDataFrame([("A", 2000), ("A", 2002), ("A", 2007), ("B", 1999), ("B", 2015)], ["Group", "Date"])
+-----+----+
|Group|Date|
+-----+----+
| A|2000|
| A|2002|
| A|2007|
| B|1999|
| B|2015|
+-----+----+
# accepted solution above
from pyspark.sql.window import *
from pyspark.sql.functions import row_number
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date")))
# accepted solution above output
+-----+----+-------+
|Group|Date|row_num|
+-----+----+-------+
| B|1999| 1|
| B|2015| 2|
| A|2000| 1|
| A|2002| 2|
| A|2007| 3|
+-----+----+-------+
如您所见,函数 row_number 从 1 而不是 0 开始,请求的问题希望 row_num 从 0 开始。像我在下面所做的简单更改:
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date"))-1).show()
输出:
+-----+----+-------+
|Group|Date|row_num|
+-----+----+-------+
| B|1999| 0|
| B|2015| 1|
| A|2000| 0|
| A|2002| 1|
| A|2007| 2|
+-----+----+-------+
然后您可以按任意顺序对 "Group" 列进行排序。上面的解决方案几乎都有,但重要的是要记住 row_number 以 1 而不是 0 开头。
使用 pyspark,我希望能够对 spark 数据框进行分组,对组进行排序,然后提供行号。所以
Group Date
A 2000
A 2002
A 2007
B 1999
B 2015
会变成
Group Date row_num
A 2000 0
A 2002 1
A 2007 2
B 1999 0
B 2015 1
使用window函数:
from pyspark.sql.window import *
from pyspark.sql.functions import row_number
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date")))
公认的解决方案几乎是正确的。这是基于问题中要求的输出的解决方案:
df = spark.createDataFrame([("A", 2000), ("A", 2002), ("A", 2007), ("B", 1999), ("B", 2015)], ["Group", "Date"])
+-----+----+
|Group|Date|
+-----+----+
| A|2000|
| A|2002|
| A|2007|
| B|1999|
| B|2015|
+-----+----+
# accepted solution above
from pyspark.sql.window import *
from pyspark.sql.functions import row_number
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date")))
# accepted solution above output
+-----+----+-------+
|Group|Date|row_num|
+-----+----+-------+
| B|1999| 1|
| B|2015| 2|
| A|2000| 1|
| A|2002| 2|
| A|2007| 3|
+-----+----+-------+
如您所见,函数 row_number 从 1 而不是 0 开始,请求的问题希望 row_num 从 0 开始。像我在下面所做的简单更改:
df.withColumn("row_num", row_number().over(Window.partitionBy("Group").orderBy("Date"))-1).show()
输出:
+-----+----+-------+
|Group|Date|row_num|
+-----+----+-------+
| B|1999| 0|
| B|2015| 1|
| A|2000| 0|
| A|2002| 1|
| A|2007| 2|
+-----+----+-------+
然后您可以按任意顺序对 "Group" 列进行排序。上面的解决方案几乎都有,但重要的是要记住 row_number 以 1 而不是 0 开头。