用零 PySpark 替换字符串类型列中的空值
replace null values in string type column with zero PySpark
我需要将字符串类型列中的空值替换为 0。
数据如下所示:
df.groupBy('content').count().show()
+---------------+------+
| content| count|
+---------------+------+
| videos| 754|
| food-news| 76151|
| null| 39|
| uk| 23879|
我试过这个:
df.na.fill(0).show()
但是这段代码只处理了int类型的列。如何将其替换为字符串类型的列?
谢谢。
用字符串'0'填充为:
df = df.na.fill(0).na.fill('0')
我需要将字符串类型列中的空值替换为 0。 数据如下所示:
df.groupBy('content').count().show()
+---------------+------+
| content| count|
+---------------+------+
| videos| 754|
| food-news| 76151|
| null| 39|
| uk| 23879|
我试过这个:
df.na.fill(0).show()
但是这段代码只处理了int类型的列。如何将其替换为字符串类型的列?
谢谢。
用字符串'0'填充为:
df = df.na.fill(0).na.fill('0')