无法从 pandas 转到 dask 数据帧,内存错误

Unable to go from pandas to dask dataframe, memory error

我有一个包含 700 万条记录的 pandas 数据框,我正在尝试创建一个 dask 数据框,但我将 运行 存入内存问题。

使用的代码:

dd_test = dd.from_pandas(df_lookup_table, npartitions=3)

错误信息:

Traceback (most recent call last):
  File "<input>", line 1, in <module>
  File "C:\Users\user\venv\lib\site-packages\dask\dataframe\io\io.py", line 181, in from_pandas
    name = name or ('from_pandas-' + tokenize(data, chunksize))
  File "C:\Users\user\venv\lib\site-packages\dask\base.py", line 600, in tokenize
    return md5(str(tuple(map(normalize_token, args))).encode()).hexdigest()
  File "C:\Users\user\venv\lib\site-packages\dask\utils.py", line 413, in __call__
    return meth(arg, *args, **kwargs)
  File "C:\Users\user\venv\lib\site-packages\dask\base.py", line 710, in normalize_dataframe
    return list(map(normalize_token, data))
  File "C:\Users\user\venv\lib\site-packages\dask\utils.py", line 413, in __call__
    return meth(arg, *args, **kwargs)
  File "C:\Users\user\venv\lib\site-packages\dask\base.py", line 734, in normalize_array
    x.flat]))
MemoryError

我能够创建一个数据框较小的 dask 数据框。如何从这个 pandas 数据框创建一个 dask 数据框?

dask 的重点是能够处理不适合内存的数据。在这种情况下,您首先将数据集加载到内存中,然后再将其传递给 dask。相反,您应该直接使用 dask 加载数据。例如,如果您使用 pandas.read_csv,则应将其切换为 dask.dataframe.read_csv