我们做实验时一般都会搭建一个单节点的集群,有时启动HDFS后发现一直处于Safemode is on,等待很长时间还是没有off后没有耐心就直接重新hdfs namenode -format了,重新启动了发现HDFS的Security is off.Safemode is off.都正常了。
此时满心欢喜可以动手做实验,但是悲催的你会发现 hadoop fs -ls 啥的可以使用,但是hadoop fs -put就不好使了,会报错。jps一看datanode没有启动起来。
What ? Why?
查看datanode日志:
2017-12-07 08:34:28,967 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-root/dfs/data: namenode clusterID = CID-71807aeb-bae3-4461-acae-c8633b75cdcc; datanode clusterID = CID-6ab0c71b-f79c-4c73-b5aa-1b650d4f4f53
2017-12-07 08:34:28,968 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to hadoop001/192.168.187.111:8020. Exiting.
java.io.IOException: All specified directories are failed to load.
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1394)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1355)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:228)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:829)
at java.lang.Thread.run(Thread.java:748)
从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。
进入/tmp/hadoop-root/dfs/目录,分别打开name、data的current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。
出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
手机扫一扫
移动阅读更方便
你可能感兴趣的文章