原创

格式化两次datanode无法启动的解决办法

datanode无法启动报错,日志:

我看到了UUID,马上想到了clusterID,因为clusterID是UUID生成的,五台节点都要一致,namenode的clusterID和datanode的clusterID都要一致,都要是namenode的。

因为我配置错了,格式化了两次,所以会出现这样子的问题。

slaves之前也配置了三台datanode的主机名,所以,跟这个无关:

修改为namenode的clusterID的UUID序列号(两台namenode和三台datanode的clusterID要保持一致):

修改后,启动成功:

还有一种办法就是删除hadoop的data数据,重新格式化,我推荐修改一致。

正文到此结束
本文目录