内容简介:在阅读这篇文章之前,你应该先阅读:1. 首先在npdev1机器上面运行hadoop-daemon.sh start namenode,启动namenode.
一、Hadoop的启动
在阅读这篇文章之前,你应该先阅读: Hadoop的安装与环境搭建 .
1. 首先在npdev1机器上面运行hadoop-daemon.sh start namenode,启动namenode.
2. 然后在npfdev2,npfdev3,npfdev4分别运行hadoop-daemon.sh start datanode
3. 启动完成之后,我们的Hadoop的物理架构和逻辑架构如下:
npfdev1机器上面运行namenode, npfdev2,npfdev3,npfdev4分别运行datanode.
4. HDFS架构如下:
Hadoop简单来说就是多台机器备份的,可以横向扩展的系统。
二、使用命令行查看整个集群信息
1. 使用hdfs dfsadmin -report命令
我们为了更好的展示,使用hdfs dfsadmin -report | more 命令:
1.1 看集群的使用情况:
1.2 看集群的datanode的情况, 总共有3个live的datanode.
第一个datanode:
第二个datanode:
第三个datanode:
三、使用web页面查看整个集群信息
1. 访问http://npfdev1:50070,选择Overview选项:
2. 选择Datanodes选项:
3. 选择Utilities选项下面的browse directory,可以看到整个硬盘的使用情况 :
4. 选择Utilities选项下面的logs,可以看到启动日志:
四、关闭Hadoop集群
1. 首先在npdev1机器上面运行hadoop-daemon.sh stop namenode.
2. 然后在npfdev2,npfdev3,npfdev4分别运行hadoop-daemon.sh stop datanode.
五、启动和关闭Hadoop集群命令步骤总结:
1. 在master上启动hadoop-daemon.sh start namenode.
2. 在slave上启动hadoop-daemon.sh start datanode.
3. 用jps指令观察执行结果.
4. 用hdfs dfsadmin -report观察集群配置情况.
5. 通过http://npfdev1:50070界面观察集群运行情况.
6. 用hadoop-daemon.sh stop ...手工关闭集群.
更多Hadoop相关信息见 Hadoop 专题页面 https://www.linuxidc.com/topicnews.aspx?tid=13
Linux公社的RSS地址: https://www.linuxidc.com/rssFeed.aspx
本文永久更新链接地址: https://www.linuxidc.com/Linux/2018-08/153639.htm
以上所述就是小编给大家介绍的《简单认识namenode和datanode》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
YES!产品经理(上、下册)
汤圆、老马 / 电子工业出版社 / 2011-9-1 / 128.00元
《YES!产品经理(套装上下册)》是一本融合了经管、工具和职场小说特点的图书,作者是国内产品经理咨询界最有实力的团队。 《YES!产品经理(套装上下册)》以职场小说的形式全面介绍产品管理、产品经理相关的知识,所有的问答均放置在设计好的101个情节中,同时每一个情节之间也都有相应的联系,读者能够从具体的情节走向中不但了解到产品管理的完整知识,而且能够深刻感受到一个产品经理的现实工作状态,从知识......一起来看看 《YES!产品经理(上、下册)》 这本书的介绍吧!