内容简介:在阅读这篇文章之前,你应该先阅读:对集群进行集中管理.1.使用hdfs dfs -put file /解释:file指的是你本地文件路径地址,/指的是hdfs的根路径.
一、put文件到HDFS
在阅读这篇文章之前,你应该先阅读:对集群进行集中管理.
1.使用hdfs dfs -put file /
解释:file指的是你本地文件路径地址,/指的是hdfs的根路径.
例如我现在位于/usr/local/source路径下面,我想把当前路径下的Hadoop-2.7.3.tar.gz上传到hdfs上面,hadoop-2.7.3.tar.gz这个文件大概是200M左右,那么它将会被分成2块,因为hdfs默认的块大小是128M.
运行命令:hdfs dfs -put ./hadoop-2.7.3.tar.gz /
二、使用web页面信息
1.访问http://npfdev1:50070
2. 点击你刚才上传的文件,查看分块信息
第0块:
第1块:
三、其他命令
hdfs dfs -ls /
hdfs dfs -put file /
hdfs dfs -mkdir /dirname
hdfs dfs -text /filename
hdfs dfs -rm /filename
Linux公社的RSS地址: https://www.linuxidc.com/rssFeed.aspx
本文永久更新链接地址: https://www.linuxidc.com/Linux/2018-08/153641.htm
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- mongoose的增删改查
- JDBC实现简单增删改查
- Golang操作MySQL增删改查
- iOS CoreData (一) 增删改查
- CMDB_基础模型(增删改查)
- Mybatis增删改查之Oracle
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
数据驱动:从方法到实践
桑文锋 / 电子工业出版社 / 2018-3 / 49
本书是从理论到实践的全面且细致的企业数据驱动指南,从作者的百度大数据工作说起,完整还原其从零到一构建百度用户行为大数据处理平台经历。详解大数据本质、理念与现状,围绕数据驱动四环节——采集、建模、分析、指标,深入浅出地讲述企业如何将数据驱动方案落地,并指出数据驱动的价值在于“数据驱动决策”、“数据驱动产品智能”。最后通过互联网金融、电子商务、企业服务、零售四大行业实践,从需求梳理、事件指标设计、数据......一起来看看 《数据驱动:从方法到实践》 这本书的介绍吧!