无法读取 pyspark 中的 mongodb 数据 (json)

unable to read the mongodb data (json) in pyspark

我正在通过 pymongo 连接 mongodb 数据库并实现了以 json 格式从数据库外部获取它的预期结果。但我的任务是我需要通过 pyspark 创建一个配置单元 table ,我发现 mongodb 提供了 json (RF719) spark 不支持。当我尝试加载数据时pyspark (dataframe) 它显示为损坏的记录。 .如果在 python 中转换 json 格式的任何可能方法也可以..请建议回复

mport json with open('D:/json/aaa.json') as f: d = f.read() da = ''.join(d.split()) print(type (da)) 打印(da) daa=da.replace('u'','') daaa= json.loads(daa) 打印(daaa) 满意的答案。因此关闭这个问题