hadoop集群重新格式化详细步骤

2020年06月07日 206点热度 2人点赞 0条评论

hadoop集群只需要格式化一次就可以,多次格式化会造成id不一致

每次格式化后,名称结点 的clusterID(集群ID)会被新建,而数据结点的clusterID还是原来的,造成名称结点和数据节点的clusterID不一致

从而发生故障,例如:某个进程启动不起来

解决方法:

1、关闭集群

2、删除/usr/local/src/hadoop-2.6.1/dfs/name 下面文件 【每个节点操作】

3、删除/usr/local/src/hadoop-2.6.1/dfs/data 下面文件 【每个节点操作】

4、删除/usr/local/src/hadoop-2.6.1/tmp 下面文件 【每个节点操作】

5、删除/usr/local/src/hadoop-2.6.1/logs 下面文件 【每个节点操作】

6、重新格式化 hadoop namenode -format  【只在master上操作】

7、启动集群

hadoop集群不能多次格式化的原因不止开篇说的那一个原因,比如:多次格式化会造成你集群上的数据丢失。

集群格式化可以理解为你的电脑重新做系统。

阿布

源自灵魂深处的自我救赎。

文章评论