PySpark 中不存在方法 showString([class java.lang.Integer, class java.lang.Integer, class java.lang.Boolean])
Method showString([class java.lang.Integer, class java.lang.Integer, class java.lang.Boolean]) does not exist in PySpark
这是片段:
from pyspark import SparkContext
from pyspark.sql.session import SparkSession
sc = SparkContext()
spark = SparkSession(sc)
d = spark.read.format("csv").option("header", True).option("inferSchema", True).load('file.csv')
d.show()
这之后遇到错误:
An error occurred while calling o163.showString. Trace:
py4j.Py4JException: Method showString([class java.lang.Integer, class java.lang.Integer, class java.lang.Boolean]) does not exist
所有其他方法都可以正常工作。尝试了很多研究但徒劳无功。任何线索将不胜感激
在spark-shell控制台,输入变量名,查看数据类型。
作为替代方案,您可以在变量命名后按 Tab 键两次。它将显示可以应用的必要功能。
DataFrame 对象的示例。
res23: org.apache.spark.sql.DataFrame = [order_id: string, book_name: string ... 1 more field]
这表明 Spark 版本不匹配。 Before Spark 2.3 show
方法只有两个参数:
def show(self, n=20, truncate=True):
since 2.3 它需要三个参数:
def show(self, n=20, truncate=True, vertical=False):
在你的情况下 Python 客户端似乎调用了后者,而 JVM 后端使用旧版本。
由于 SparkContext
初始化在 2.4 中发生了重大变化,这会导致 SparkContext.__init__
失败,您可能正在使用:
- 2.3.x Python 图书馆.
- 2.2.x 个 JAR。
您可以通过直接从会话中检查版本来确认,Python:
sc.version
对比JVM:
sc._jsc.version()
像这样的问题,通常是 PYTHONPATH
配置错误的结果(要么直接,要么使用 pip
在每个现有的 Spark 二进制文件上安装 PySpark
)或 SPARK_HOME
.
这是片段:
from pyspark import SparkContext
from pyspark.sql.session import SparkSession
sc = SparkContext()
spark = SparkSession(sc)
d = spark.read.format("csv").option("header", True).option("inferSchema", True).load('file.csv')
d.show()
这之后遇到错误:
An error occurred while calling o163.showString. Trace:
py4j.Py4JException: Method showString([class java.lang.Integer, class java.lang.Integer, class java.lang.Boolean]) does not exist
所有其他方法都可以正常工作。尝试了很多研究但徒劳无功。任何线索将不胜感激
在spark-shell控制台,输入变量名,查看数据类型。 作为替代方案,您可以在变量命名后按 Tab 键两次。它将显示可以应用的必要功能。 DataFrame 对象的示例。
res23: org.apache.spark.sql.DataFrame = [order_id: string, book_name: string ... 1 more field]
这表明 Spark 版本不匹配。 Before Spark 2.3 show
方法只有两个参数:
def show(self, n=20, truncate=True):
since 2.3 它需要三个参数:
def show(self, n=20, truncate=True, vertical=False):
在你的情况下 Python 客户端似乎调用了后者,而 JVM 后端使用旧版本。
由于 SparkContext
初始化在 2.4 中发生了重大变化,这会导致 SparkContext.__init__
失败,您可能正在使用:
- 2.3.x Python 图书馆.
- 2.2.x 个 JAR。
您可以通过直接从会话中检查版本来确认,Python:
sc.version
对比JVM:
sc._jsc.version()
像这样的问题,通常是 PYTHONPATH
配置错误的结果(要么直接,要么使用 pip
在每个现有的 Spark 二进制文件上安装 PySpark
)或 SPARK_HOME
.