向我现有的集群添加自动故障转移?

add automatic failover to my existing cluster?

我需要有关 Hadoop 中自动故障转移的帮助。要求是在故障期间将控制权从一个节点转移到另一个节点。我已经有 运行 个集群并想将其添加到现有集群。

hdfs dfsadmin -报告 配置容量:4393174024192 (4.00 TB) 当前容量:4101312667648 (3.73 TB) DFS 剩余:4100850401280 (3.73 TB) 使用的 DFS:462266368 (440.85 MB) DFS 使用百分比:0.01% 复制块: 在复制块下:20 具有损坏副本的块:0 缺失块:0 缺失块(复制因子为 1):0 具有最高恢复优先级的低冗余块:0 待删除块:0 纠删码块组: 低冗余块组:0 内部块损坏的块组:0 缺少块组:0 具有最高恢复优先级的低冗余块:0 待删除块:0


实时数据节点 (4):

姓名:192.168.5.250:9866 (odin) 主机名:odin 退役状态:正常 配置容量:1098293506048 (1022.87 GB) 使用的 DFS:222879744 (212.55 MB) 未使用 DFS:16838836224 (15.68 GB) DFS 剩余:1025325965312 (954.91 GB) DFS 使用百分比:0.02% DFS 剩余百分比:93.36% 配置的缓存容量:0 (0 B) 使用缓存:0 (0 B) 缓存剩余:0 (0 B) 缓存已用百分比:100.00% 缓存剩余百分比:0.00% 接受者:1 最后联系:5 月 20 日星期一 10:44:50 IST 2019 最后一次区块报告:5 月 20 日星期一 09:12:14 IST 2019 块数:129

姓名:192.168.5.251:9866(洛基) 主机名:loki 退役状态:正常 配置容量:1098293506048 (1022.87 GB) 使用的 DFS:145424384 (138.69 MB) 未使用 DFS:15433760768 (14.37 GB) DFS 剩余:1026808496128 (956.29 GB) DFS 使用百分比:0.01% DFS 剩余百分比:93.49% 配置的缓存容量:0 (0 B) 使用缓存:0 (0 B) 缓存剩余:0 (0 B) 缓存已用百分比:100.00% 缓存剩余百分比:0.00% 接受者:1 最后联系:5 月 20 日星期一 10:44:50 IST 2019 最后一次区块报告:5 月 20 日星期一 09:12:14 IST 2019 块数:106

姓名:192.168.5.252:9866(雷神) 主机名:雷神 退役状态:正常 配置容量:1098293506048 (1022.87 GB) 使用的 DFS:8003584 (7.63 MB) 未使用 DFS:16954404864 (15.79 GB) DFS 剩余:1025425272832 (955.00 GB) DFS 使用百分比:0.00% DFS 剩余百分比:93.37% 配置的缓存容量:0 (0 B) 使用缓存:0 (0 B) 缓存剩余:0 (0 B) 缓存已用百分比:100.00% 缓存剩余百分比:0.00% 接受者:1 最后联系:5 月 20 日星期一 10:44:50 IST 2019 最后一次区块报告:5 月 20 日星期一 10:08:38 IST 2019 块数:102

姓名:192.168.5.253:9866(海拉) 主机名:hela 退役状态:正常 配置容量:1098293506048 (1022.87 GB) 使用的 DFS:85958656 (81.98 MB) 未使用 DFS:19011055616 (17.71 GB) DFS 剩余:1023290667008 (953.01 GB) DFS 使用百分比:0.01% DFS 剩余百分比:93.17% 配置的缓存容量:0 (0 B) 使用缓存:0 (0 B) 缓存剩余:0 (0 B) 缓存已用百分比:100.00% 缓存剩余百分比:0.00% 接受者:1 最后联系:5 月 20 日星期一 10:44:50 IST 2019 最后一次区块报告:5 月 20 日星期一 09:12:14 IST 2019 块数:109

[https://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html][1] , I found this link and [https://www.edureka.co/blog/how-to-set-up-hadoop-cluster-with-hdfs-high-availability/][1]
Both will helps for setting this environment.