无法从 bin 中 运行 spark-shell
Unable to run spark-shell from bin
我是 spark 新手,我下载了预编译的 spark。
当我尝试在命令行上从 bin 文件夹中 运行 spark-shell 时,它 returns
:cd /users/denver/spark-1.6/bin
:spark-shell
command not found
但如果我 运行 它喜欢
:cd /users/denver/spark-1.6
:./bin/spark-shell
它启动 spark ..
你能告诉我为什么在第一种情况下会抛出错误吗
在第一种情况下你不能 运行 spark-shell
命令的原因是 environment variable
终端在 $PATH
中搜索可执行文件。这是一个 Unix 环境变量,列出了包含系统二进制文件的目录(例如 ls、echo 或 gcc).如果您调用不在 $PATH
目录(例如 spark-shell
)中的可执行文件,您需要指明其在文件系统中的绝对路径。
终端中.
是当前工作目录的同义词,因此./bin/spark-shell
可以正常工作。你同样可以调用 ./some/path/bin/spark-shell
.
希望对您有所帮助。
在linux中:
添加到你的 ~/.bashrc
导出SPARK_HOME=/home/das/spark-1.6.2-bin-hadoop2.6
导出路径=$路径:$SPARK_HOME/bin:$SPARK_HOME/sbin
来源 ~/.bashrc。
重新启动终端
然后 spark-shell 可以在任何地方工作
如果它不起作用添加到 ~/.profile
我也遇到过这种情况。切换到 spark 目录后使用 ./bin/spark-shell
应该可以解决问题。
我是 spark 新手,我下载了预编译的 spark。
当我尝试在命令行上从 bin 文件夹中 运行 spark-shell 时,它 returns
:cd /users/denver/spark-1.6/bin
:spark-shell
command not found
但如果我 运行 它喜欢
:cd /users/denver/spark-1.6
:./bin/spark-shell
它启动 spark ..
你能告诉我为什么在第一种情况下会抛出错误吗
在第一种情况下你不能 运行 spark-shell
命令的原因是 environment variable
终端在 $PATH
中搜索可执行文件。这是一个 Unix 环境变量,列出了包含系统二进制文件的目录(例如 ls、echo 或 gcc).如果您调用不在 $PATH
目录(例如 spark-shell
)中的可执行文件,您需要指明其在文件系统中的绝对路径。
终端中.
是当前工作目录的同义词,因此./bin/spark-shell
可以正常工作。你同样可以调用 ./some/path/bin/spark-shell
.
希望对您有所帮助。
在linux中:
添加到你的 ~/.bashrc
导出SPARK_HOME=/home/das/spark-1.6.2-bin-hadoop2.6 导出路径=$路径:$SPARK_HOME/bin:$SPARK_HOME/sbin
来源 ~/.bashrc。 重新启动终端 然后 spark-shell 可以在任何地方工作 如果它不起作用添加到 ~/.profile
我也遇到过这种情况。切换到 spark 目录后使用 ./bin/spark-shell
应该可以解决问题。