PySpark 数据帧转换
PySpark Dataframe Transformation
我有以下数据框:
import pandas as pd
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext('local')
df_pd = pd.DataFrame([[11, 'abc', 1, 114],
[11, 'abc', 2, 104],
[11, 'def', 9, 113],
[12, 'abc', 1, 14],
[12, 'def', 3, 110],
[14, 'abc', 1, 194],
[14, 'abc', 2, 164],
[14, 'abc', 3, 104],],
columns=['id', 'str', 'num', 'val'])
sql_sc = SQLContext(sc)
df_spark = sql_sc.createDataFrame(df_pd)
df_spark.show()
打印:
+---+---+---+---+
| id|str|num|val|
+---+---+---+---+
| 11|abc| 1|114|
| 11|abc| 2|104|
| 11|def| 9|113|
| 12|abc| 1| 14|
| 12|def| 3|110|
| 14|abc| 1|194|
| 14|abc| 2|164|
| 14|abc| 3|104|
+---+---+---+---+
我的目标是把它改成这样:
+---+-----+-----+-----+-----+-----+
| id|abc_1|abc_2|abc_3|def_3|def_9|
+---+-----+-----+-----+-----+-----+
| 11| 114| 104| NaN| NaN| 113|
| 12| 14| NaN| NaN| 110| NaN|
| 14| 194| 164| 104| NaN| NaN|
+---+-----+-----+-----+-----+-----+
(每行 id
,列名称为 str+'_'+str(val)
,结果 table 填充相应的 val
,所有其他条目为 NaN
)
我将如何实现这一目标?
我从
开始
column = df_spark.select(concat(col("str"), lit("_"), col("num")))
通过它我得到了列名。
df_spark.select('id').distinct()
给出不同的 id
s
但是我无法构建或填充新的 Dataframe。
编辑:与可能重复项的不同之处在于我不知道数据透视功能,而另一个问题询问在 pyspark 中哪里可以找到函数 "pivot"。我不知道那是否重复,但我没有找到其他问题,因为我不知道要查找什么。
我不确定您要对 val 字段使用哪种聚合。我使用了求和,这是解决方案
import pyspark.sql.functions as F
df_spark = df_spark.withColumn('col', F.concat(F.col("str"), F.lit("_"), F.col("num")))
df_spark.groupBy('id').pivot('col').agg({'val':'sum'}).orderBy('id').show()
+---+-----+-----+-----+-----+-----+
| id|abc_1|abc_2|abc_3|def_3|def_9|
+---+-----+-----+-----+-----+-----+
| 11| 114| 104| null| null| 113|
| 12| 14| null| null| 110| null|
| 14| 194| 164| 104| null| null|
+---+-----+-----+-----+-----+-----+
我有以下数据框:
import pandas as pd
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext('local')
df_pd = pd.DataFrame([[11, 'abc', 1, 114],
[11, 'abc', 2, 104],
[11, 'def', 9, 113],
[12, 'abc', 1, 14],
[12, 'def', 3, 110],
[14, 'abc', 1, 194],
[14, 'abc', 2, 164],
[14, 'abc', 3, 104],],
columns=['id', 'str', 'num', 'val'])
sql_sc = SQLContext(sc)
df_spark = sql_sc.createDataFrame(df_pd)
df_spark.show()
打印:
+---+---+---+---+
| id|str|num|val|
+---+---+---+---+
| 11|abc| 1|114|
| 11|abc| 2|104|
| 11|def| 9|113|
| 12|abc| 1| 14|
| 12|def| 3|110|
| 14|abc| 1|194|
| 14|abc| 2|164|
| 14|abc| 3|104|
+---+---+---+---+
我的目标是把它改成这样:
+---+-----+-----+-----+-----+-----+
| id|abc_1|abc_2|abc_3|def_3|def_9|
+---+-----+-----+-----+-----+-----+
| 11| 114| 104| NaN| NaN| 113|
| 12| 14| NaN| NaN| 110| NaN|
| 14| 194| 164| 104| NaN| NaN|
+---+-----+-----+-----+-----+-----+
(每行 id
,列名称为 str+'_'+str(val)
,结果 table 填充相应的 val
,所有其他条目为 NaN
)
我将如何实现这一目标? 我从
开始column = df_spark.select(concat(col("str"), lit("_"), col("num")))
通过它我得到了列名。
df_spark.select('id').distinct()
给出不同的 id
s
但是我无法构建或填充新的 Dataframe。
编辑:与可能重复项的不同之处在于我不知道数据透视功能,而另一个问题询问在 pyspark 中哪里可以找到函数 "pivot"。我不知道那是否重复,但我没有找到其他问题,因为我不知道要查找什么。
我不确定您要对 val 字段使用哪种聚合。我使用了求和,这是解决方案
import pyspark.sql.functions as F
df_spark = df_spark.withColumn('col', F.concat(F.col("str"), F.lit("_"), F.col("num")))
df_spark.groupBy('id').pivot('col').agg({'val':'sum'}).orderBy('id').show()
+---+-----+-----+-----+-----+-----+
| id|abc_1|abc_2|abc_3|def_3|def_9|
+---+-----+-----+-----+-----+-----+
| 11| 114| 104| null| null| 113|
| 12| 14| null| null| 110| null|
| 14| 194| 164| 104| null| null|
+---+-----+-----+-----+-----+-----+