由于 False 作为条目,pyspark 中 json 文件的损坏记录
corrupted record from json file in pyspark due to False as entry
我有一个 json 文件,如下所示:
test= {'kpiData': [{'date': '2020-06-03 10:05',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:10',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:15',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:20',
'a': 'MINIMUMINTERVAL',
'b': 0.0,}
]}
我想将其传输到数据框对象,如下所示:
rdd = sc.parallelize([test])
jsonDF = spark.read.json(rdd)
这会导致记录损坏。根据我的理解,原因是 True
和 False
不能作为 Python 中的条目。所以我需要在 spark.read.json()
之前转换这些条目(为 TRUE、true 或“True”)。 test 是一个字典,而 rdd 是一个 pyspark.rdd.RDD 对象。对于 datframe 对象,转换非常简单,但我没有找到这些对象的解决方案。
spark.read.json
期望 JSON 字符串的 RDD,而不是 Python 字典的 RDD。如果您将字典转换为 JSON 字符串,您应该能够将其读入数据帧:
import json
df = spark.read.json(sc.parallelize([json.dumps(test)]))
另一种可能的方法是使用 spark.createDataFrame
:
来阅读字典
df = spark.createDataFrame([test])
这将使用映射而不是结构提供不同的模式。
我有一个 json 文件,如下所示:
test= {'kpiData': [{'date': '2020-06-03 10:05',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:10',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:15',
'a': 'MINIMUMINTERVAL',
'b': 0.0,
'c': True},
{'date': '2020-06-03 10:20',
'a': 'MINIMUMINTERVAL',
'b': 0.0,}
]}
我想将其传输到数据框对象,如下所示:
rdd = sc.parallelize([test])
jsonDF = spark.read.json(rdd)
这会导致记录损坏。根据我的理解,原因是 True
和 False
不能作为 Python 中的条目。所以我需要在 spark.read.json()
之前转换这些条目(为 TRUE、true 或“True”)。 test 是一个字典,而 rdd 是一个 pyspark.rdd.RDD 对象。对于 datframe 对象,转换非常简单,但我没有找到这些对象的解决方案。
spark.read.json
期望 JSON 字符串的 RDD,而不是 Python 字典的 RDD。如果您将字典转换为 JSON 字符串,您应该能够将其读入数据帧:
import json
df = spark.read.json(sc.parallelize([json.dumps(test)]))
另一种可能的方法是使用 spark.createDataFrame
:
df = spark.createDataFrame([test])
这将使用映射而不是结构提供不同的模式。