hadoop集群只需要格式化一次就可以,多次格式化会造成id不一致
每次格式化后,名称结点 的clusterID(集群ID)会被新建,而数据结点的clusterID还是原来的,造成名称结点和数据节点的clusterID不一致
从而发生故障,例如:某个进程启动不起来
解决方法:
1、关闭集群
2、删除/usr/local/src/hadoop-2.6.1/dfs/name 下面文件 【每个节点操作】
3、删除/usr/local/src/hadoop-2.6.1/dfs/data 下面文件 【每个节点操作】
4、删除/usr/local/src/hadoop-2.6.1/tmp 下面文件 【每个节点操作】
5、删除/usr/local/src/hadoop-2.6.1/logs 下面文件 【每个节点操作】
6、重新格式化 hadoop namenode -format 【只在master上操作】
7、启动集群
hadoop集群不能多次格式化的原因不止开篇说的那一个原因,比如:多次格式化会造成你集群上的数据丢失。
集群格式化可以理解为你的电脑重新做系统。
文章评论