内容简介:Hadoop 集群的添加和删除节点比较容易,这里也就做个记录。目前我使用的虚拟机搭建,共有 1 个
Hadoop 集群的添加和删除节点比较容易,这里也就做个记录。
环境介绍
目前我使用的虚拟机搭建,共有 1 个 NameNode
和 另外 2 个 DataNode
master NameNode/DataNode slave1 DataNode slave2 DataNode
hdfs-site.xml
中的 dfs.replication
使用的默认值 3
关键配置
因为我之前在部署环境的时候没有设置 dfs.hosts
和 dfs.hosts.exclude
。先简单介绍一下。
dfs.hosts
是在 hdfs-site.xml
中的一项配置,它定义了允许连接到 NameNode
的主机列表。在默认情况下(不配置该项)就会允许所有主机。
dfs.hosts.exclude
是在 hdfs-site.xml
中的一项配置,它的功能正好与 dfs.hosts
相反,它是用于定义不允许连接到 NameNode
的主机列表。在默认情况下(不配置该项)就不会排除任何主机。
类似的,资源管理器配置文件 yarn-site.xml
中也拥有与 HDFS
这两项功能相似的配置,分别为 yarn.resourcemanager.nodes.include-path
和 yarn.resourcemanager.nodes.exclude-path
一般情况下,我们会将 yarn.resourcemanager.nodes.include-path
和 dfs.hosts
指向同一个文件,将 yarn.resourcemanager.nodes.exclude-path
和 dfs.hosts.exclude
指向同一文件。但是他们在特殊情况下,具体的实现会细微的差别,后面再提。
准备工作
首先为了操作方便我们先创建好 include
和 exclude
文件,并往 include
中写入已存在的集群信息并测试一下是否运行正常
vi $HADOOP_HOME/etc/hadoop/include master slave1 slave2
exclude
先不写入信息,准备好就行了
touch $HADOOP_HOME/etc/hadoop/exclude
停止服务修改配置文件
stop-all.sh vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml
写入以下信息
<configuration> <property> <name>dfs.replication</name> <!-- 因为这里要把拥有3个DataNode的集群删除一个节点,所以要把备份数调为2以免出错 --> <value>2</value> </property> <property> <name>dfs.hosts</name> <!-- 允许连接到HDFS的主机列表 --> <value>/usr/local/hadoop-2.6.0/etc/hadoop/include</value> </property> <property> <name>dfs.hosts.exclude</name> <!-- 阻止连接到HDFS的主机列表 --> <value>/usr/local/hadoop-2.6.0/etc/hadoop/exclude</value> </property> </configuration>
vi $HADOOP_HOME/etc/hadoop/yarn-site.xml
添加以下信息
<property> <name>yarn.resourcemanager.nodes.include-path</name> <!-- 允许连接列表 --> <value>/usr/local/hadoop-2.6.0/etc/hadoop/include</value> </property> <property> <name>yarn.resourcemanager.nodes.exclude-path</name> <!-- 阻止连接列表 --> <value>/usr/local/hadoop-2.6.0/etc/hadoop/exclude</value> </property>
启动服务
start-dfs.sh start-yarn.sh
用 hdfs dfs -ls /
和 get/put
之类的试试 HDFS
工作正常不,然后也可以用 hive
的 select count(*)
之类的语句一下 MapReduce
工作正常不,如果正常的话就可以走下一步了。
删除节点
判断一个节点能否连接到 资源管理器
非常简单。仅当节点出现在 include
文件且不出现在 exclude
文件中时,才能够连接到资源管理器。注意,如果未指定 include
文件或为空的话,则意味着所有节点都可以连接到 资源管理器
。
对于 HDFS
来说, include
和 exclude
文件稍有不同,如果一个 DataNode
在 include
文件中出现同时也在 exlude
中那么说明该节点即将被删除添加。下表总结了 DataNode
的不同组合方式。
是否在 include 中 | 是否在 exclude 中 | 状态 |
---|---|---|
否 | 否 | 无法连接 |
否 | 是 | 无法连接 |
是 | 否 | 可连接 |
是 | 是 | 可连接,将被删除 |
需要注意的是 dfs.hosts
和 yarn.resourcemanager.nodes.include-path
属性指定的文件( include
和 exclude
)不同于 slaves
文件,前者供 NameNode
和资源管理器使用,用于决定可以连接那些节点。Hadoop 控制脚本使用 slaves
文件执行面向整个集群范围的操作,例如重启集群等。Hadoop 守护进程从不使用 slaves
文件。
进入 exclude
配置,写入即将删除的节点
vi $HADOOP_HOME/etc/hadoop/exclude
slave2
运行以下指令,将节点信息更新至 NameNode
和 资源管理器
hdfs dfsadmin -refreshNodes yarn rmadmin -refreshNodes
你可以在 WEB 端看到 Datanode
的 Admin State
变化如下 In Service
> Decommission In Progress
> Decommissioned
如果在 Decommission In Progress
卡了很久,可能是你没有吧 dfs.replication
调低。我之前遇到了这个问题。
同时我在删除了1个节点后 HDFS 会疯狂报错,一直找不到解决方案。但是它也不影响 HDFS 的正常运行就直接无视了 WARN org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicy: Failed to place enough replicas, still in need of 1 to reach 3 (unavailableStorages=[DISK, ARCHIVE], storagePolicy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}, newBlock=false) All required storage types are unavailable: unavailableStorages=[DISK, ARCHIVE], storagePolicy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}
资源管理器状态如下
接下来你就可以将该节点从 include
文件中完全移除了
vi $HADOOP_HOME/etc/hadoop/include master slave1
更新一下节点信息
hdfs dfsadmin -refreshNodes
如图,节点已经被完全删除了
添加节点
添加一个刚刚被删除的节点,会让它感到懵逼。所以这里我们先重启一下。
stop-yarn.sh stop-dfs.sh start-dfs.sh start-yarn.sh
直接将节点信息添加进 include
,同时把它从 exclude
中删除
vi $HADOOP_HOME/etc/hadoop/include master slave1 slave2
vi $HADOOP_HOME/etc/hadoop/exclude dd
更新一下节点信息
hdfs dfsadmin -refreshNodes yarn rmadmin -refreshNodes
添加节点成功
其他 大数据系列文章 请看这里
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 面试:删除链表的节点
- 删除链表的倒数第N个节点(JS版本)
- jQuery删除/清空指定元素下的所有子节点的方法
- [leetcode-JavaScript]---19.删除链表的倒数第N个节点
- xml创建节点(根节点、子节点)
- Vultr VPS 节点选择方法 | 各节点延迟一览
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
C#入门经典
[美] Karli Watson、Christian Nagel / 齐立波、黄静 / 清华大学出版社 / 2008-12 / 118.00元
这是一本成就无数C#程序员的经典名著,厚而不“重”,可帮助您轻松掌握C#的各种编程知识,为您的职业生涯打下坚实的基础,《C#入门经典》自第1版出版以来,全球销量已经达数万册,在中国也有近8万册的销量,已经成为广大初级C#程序员首选的入门教程,也是目前国内市场上最畅销的C#专业店销书,曾两次被CSDN、《程序员》等机构和读者评选为“最受读者喜爱的十大技术开发类图书”!第4版面向C#2008和.NET......一起来看看 《C#入门经典》 这本书的介绍吧!