Databricks - FileNotFoundException
Databricks - FileNotFoundException
很抱歉,如果这是基本的,我错过了一些简单的东西。我正在尝试 运行 下面的代码遍历文件夹中的文件,并将所有以特定字符串开头的文件合并到数据框中。所有文件都放在一个湖中。
file_list=[]
path = "/dbfs/rawdata/2019/01/01/parent/"
files = dbutils.fs.ls(path)
for file in files:
if(file.name.startswith("CW")):
file_list.append(file.name)
df = spark.read.load(path=file_list)
# check point
print("Shape: ", df.count(),"," , len(df.columns))
db.printSchema()
这对我来说看起来不错,但显然这里有问题。我在这一行遇到错误:
files = dbutils.fs.ls(path)
错误消息如下:
java.io.FileNotFoundException: File/6199764716474501/dbfs/rawdata/2019/01/01/parent does not exist.
路径、文件和其他一切肯定存在。我尝试使用和不使用 'dbfs' 部分。会不会是权限问题?还有别的吗?我用谷歌搜索了一个解决方案。仍然无法获得牵引力。
如果您的父文件夹从 "rawdata" 开始,请确保您有一个名为 "dbfs" 的文件夹,路径应为“/rawdata/2019/01/01/parent”或 "rawdata/2019/01/01/parent"。
路径不正确会抛出错误
很抱歉,如果这是基本的,我错过了一些简单的东西。我正在尝试 运行 下面的代码遍历文件夹中的文件,并将所有以特定字符串开头的文件合并到数据框中。所有文件都放在一个湖中。
file_list=[]
path = "/dbfs/rawdata/2019/01/01/parent/"
files = dbutils.fs.ls(path)
for file in files:
if(file.name.startswith("CW")):
file_list.append(file.name)
df = spark.read.load(path=file_list)
# check point
print("Shape: ", df.count(),"," , len(df.columns))
db.printSchema()
这对我来说看起来不错,但显然这里有问题。我在这一行遇到错误:
files = dbutils.fs.ls(path)
错误消息如下:
java.io.FileNotFoundException: File/6199764716474501/dbfs/rawdata/2019/01/01/parent does not exist.
路径、文件和其他一切肯定存在。我尝试使用和不使用 'dbfs' 部分。会不会是权限问题?还有别的吗?我用谷歌搜索了一个解决方案。仍然无法获得牵引力。
如果您的父文件夹从 "rawdata" 开始,请确保您有一个名为 "dbfs" 的文件夹,路径应为“/rawdata/2019/01/01/parent”或 "rawdata/2019/01/01/parent"。
路径不正确会抛出错误