如何解压 Python 中 RDD 中每个项目的值(列表)?
How to unpack the value (a list) of every item in a RDD in Python?
我有一个 RDD,每一项都是
(key, [ele1, ele2, ele3, ..., elen])
每一项都是一个键值对,值是一个元素列表。
我想解压缩列表,这样我就可以创建一个新的 RDD,每个项目都包含一个元素,如下所示:
(key, ele1)
(key, ele2)
(key, ele3)
.
.
.
(key, ele4)
我如何在 PySpark 中执行此操作?
我试过
RDD.flatmap(lambda line: line[1])
但这不起作用。
比如这个?为了简单起见,我使用了 str
个元素。
>>> rdd = sc.parallelize([('key', ['ele1', 'ele2'])])
>>> rdd.flatMap(lambda data: [(data[0], x) for x in data[1]]).collect()
[('key', 'ele1'), ('key', 'ele2')]
我有一个 RDD,每一项都是
(key, [ele1, ele2, ele3, ..., elen])
每一项都是一个键值对,值是一个元素列表。
我想解压缩列表,这样我就可以创建一个新的 RDD,每个项目都包含一个元素,如下所示:
(key, ele1)
(key, ele2)
(key, ele3)
.
.
.
(key, ele4)
我如何在 PySpark 中执行此操作?
我试过
RDD.flatmap(lambda line: line[1])
但这不起作用。
比如这个?为了简单起见,我使用了 str
个元素。
>>> rdd = sc.parallelize([('key', ['ele1', 'ele2'])])
>>> rdd.flatMap(lambda data: [(data[0], x) for x in data[1]]).collect()
[('key', 'ele1'), ('key', 'ele2')]