无法从 bin 中 运行 spark-shell

Unable to run spark-shell from bin

我是 spark 新手,我下载了预编译的 spark。

当我尝试在命令行上从 bin 文件夹中 运行 spark-shell 时,它 returns

:cd /users/denver/spark-1.6/bin
:spark-shell

command not found

但如果我 运行 它喜欢

:cd /users/denver/spark-1.6
:./bin/spark-shell

它启动 spark ..

你能告诉我为什么在第一种情况下会抛出错误吗

在第一种情况下你不能 运行 spark-shell 命令的原因是 environment variable

终端在 $PATH 中搜索可执行文件。这是一个 Unix 环境变量,列出了包含系统二进制文件的目录(例如 lsechogcc).如果您调用不在 $PATH 目录(例如 spark-shell)中的可执行文件,您需要指明其在文件系统中的绝对路径。

终端中.是当前工作目录的同义词,因此./bin/spark-shell可以正常工作。你同样可以调用 ./some/path/bin/spark-shell.

希望对您有所帮助。

在linux中:

添加到你的 ~/.bashrc

导出SPARK_HOME=/home/das/spark-1.6.2-bin-hadoop2.6 导出路径=$路径:$SPARK_HOME/bin:$SPARK_HOME/sbin

来源 ~/.bashrc。 重新启动终端 然后 spark-shell 可以在任何地方工作 如果它不起作用添加到 ~/.profile

我也遇到过这种情况。切换到 spark 目录后使用 ./bin/spark-shell 应该可以解决问题。