无法在pyspark中导入pyarrow

Cannot import pyarrow in pyspark

我正在尝试将 pyarrow 与 pyspark 结合使用。但是当我尝试执行

import pyarrow

我收到以下错误

    In [1]: import pyarrow
---------------------------------------------------------------------------
ImportError                               Traceback (most recent call last)
<ipython-input-1-f1048abcb32d> in <module>
----> 1 import pyarrow

~/opt/anaconda3/lib/python3.7/site-packages/pyarrow/__init__.py in <module>
     47 import pyarrow.compat as compat
     48
---> 49 from pyarrow.lib import cpu_count, set_cpu_count
     50 from pyarrow.lib import (null, bool_,
     51                          int8, int16, int32, int64,

ImportError: dlopen(/Users/user/opt/anaconda3/lib/python3.7/site-packages/pyarrow/lib.cpython-37m-darwin.so, 2): Library not loaded: @rpath/libboost_filesystem.dylib
  Referenced from: /Users/user/opt/anaconda3/lib/libarrow.15.1.0.dylib
  Reason: image not found

我尝试在 conda 环境中安装 pyarrow,降级到 python 3.6 但没有成功。

有人对解决问题有什么建议吗?

PyArrow 似乎没有正确安装。所以请尝试清理旧包,然后使用以下命令再次安装 pyarrow,

   {{ conda install -c conda-forge pyarrow }}

因为我在 MacOs,已接受的答案对我不起作用,我一直在研究,对我有帮助的是 。对于那些有同样问题但在 MacOS 中的人。

brew update && brew upgrade
brew switch openssl 1.0.2s

为我工作的 Catalina 10.15.4