使用 ANSI 编码在 pyspark 中读取 CSV 文件
Read CSV file in pyspark with ANSI encoding
我正在尝试读取一个 csv/text 文件,该文件需要使用 ANSI 编码读取。但是,这是行不通的。有什么想法吗?
mainDF= spark.read.format("csv")\
.option("encoding","ANSI")\
.option("header","true")\
.option("maxRowsInMemory",1000)\
.option("inferSchema","false")\
.option("delimiter", "¬")\
.load(path)
java.nio.charset.UnsupportedCharsetException: ANSI
文件超过 5GB,因此需要 spark。
我也尝试过小写的 ANSI
ISO-8859-1 与 ANSI 相同,因此请将其替换为上述内容
我正在尝试读取一个 csv/text 文件,该文件需要使用 ANSI 编码读取。但是,这是行不通的。有什么想法吗?
mainDF= spark.read.format("csv")\
.option("encoding","ANSI")\
.option("header","true")\
.option("maxRowsInMemory",1000)\
.option("inferSchema","false")\
.option("delimiter", "¬")\
.load(path)
java.nio.charset.UnsupportedCharsetException: ANSI
文件超过 5GB,因此需要 spark。
我也尝试过小写的 ANSI
ISO-8859-1 与 ANSI 相同,因此请将其替换为上述内容