SparkR df 读取为一列
SparkR df read as one column
txt 有 4 列除以 \t。
当我这样读的时候:
A<-read.df(sqlContext,"/home/daniele/Tnt3.txt", "com.databricks.spark.csv")
SparkR 将其全部读取为一列
a\tb\tc\td
如何在 sparkR 中将 \t 更改为 ,?
(我知道我可以像这样手动更改它sed -i 's/\t/,/g' file
但是有点慢)
您应该指定分隔符。
我是 R 的新手,但我认为是这样的
A<-read.df(sqlContext,"/home/daniele/Tnt3.txt", "com.databricks.spark.csv").options("delimiter", "\t")
有关更多信息,请访问 spark-csv 页面:
a <- read.df(sqlContext, "/home/daniele/Tnt3.txt", "com.databricks.spark.csv", delimiter="\t")
txt 有 4 列除以 \t。
当我这样读的时候:
A<-read.df(sqlContext,"/home/daniele/Tnt3.txt", "com.databricks.spark.csv")
SparkR 将其全部读取为一列
a\tb\tc\td
如何在 sparkR 中将 \t 更改为 ,?
(我知道我可以像这样手动更改它sed -i 's/\t/,/g' file
但是有点慢)
您应该指定分隔符。
我是 R 的新手,但我认为是这样的
A<-read.df(sqlContext,"/home/daniele/Tnt3.txt", "com.databricks.spark.csv").options("delimiter", "\t")
有关更多信息,请访问 spark-csv 页面:
a <- read.df(sqlContext, "/home/daniele/Tnt3.txt", "com.databricks.spark.csv", delimiter="\t")