无法 运行 转储到猪中

Not able to run dump in pig

我正在尝试转储关系但出现以下错误。

我已经尝试 start-all.sh 并尝试使用 hadoop namenode -format 格式化名称节点。

但我不明白哪里出了问题。

Error:-
Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

我首先要确保我能够从边缘节点上的 hdfs 客户端连接到名称节点。如果不是一些 problem/inconsistency 在 core-site.xml 文件中带有端口或主机名的名称节点配置。

一旦您能够 运行 下面没有任何问题,并确保 namenode 在 url http://namenode_host:50070 上不处于安全模式(这会阻止任何写入)

hadoop fs -ls /

那我继续说猪。看起来基于您的错误 hdfs 客户端由于某种原因无法到达名称节点,这可能是防火墙或配置问题。

开始 JobHistoryServer

$HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver

Pig when 运行 在 mapreduce 模式下期望 JobHistoryServer 可用。

要配置 JobHistoryServer,将这些属性添加到 mapred-site.xml 将主机名替换为启动进程的主机的实际名称

<property>
   <name>mapreduce.jobhistory.address</name>
   <value>hostname:10020</value>
</property>
<property>
   <name>mapreduce.jobhistory.webapp.address</name>
   <value>hostname:19888</value>
</property>