When Running Spark job in hadoop cluster i am getting java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration

When Running Spark job in hadoop cluster i am getting java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration

当我尝试 运行 我的连接 hbase 数据库的 scala 代码时,它在我的本地 IDE 中完美运行。但是当我在 hadoop 集群中 运行 相同时,我得到 "Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration" 错误。

请帮帮我

将所有 HBase 库 jar 添加到 HADOOP_CLASSPATH -

export HBASE_HOME="YOUR_HBASE_HOME_PATH"
export HADOOP_CLASSPATH="$HADOOP_CLASSPATH:$HBASE_HOME/lib/*"

您可以将任何需要的外部 jar 附加到 HADOOP_CLASSPATH,这样您就不需要在 spark-submit 命令中明确设置它。所有依赖的 jar 都将被加载并提供给您的 Spark 应用程序。