使用HDFS dfs命令对文件进行增删改查操作

栏目: 服务器 · 发布时间: 6年前

内容简介:在阅读这篇文章之前,你应该先阅读:对集群进行集中管理.1.使用hdfs dfs -put file /解释:file指的是你本地文件路径地址,/指的是hdfs的根路径.

一、put文件到HDFS

在阅读这篇文章之前,你应该先阅读:对集群进行集中管理.

1.使用hdfs dfs -put file /

解释:file指的是你本地文件路径地址,/指的是hdfs的根路径.

例如我现在位于/usr/local/source路径下面,我想把当前路径下的Hadoop-2.7.3.tar.gz上传到hdfs上面,hadoop-2.7.3.tar.gz这个文件大概是200M左右,那么它将会被分成2块,因为hdfs默认的块大小是128M.

运行命令:hdfs dfs -put ./hadoop-2.7.3.tar.gz  /

使用HDFS dfs命令对文件进行增删改查操作

二、使用web页面信息

1.访问http://npfdev1:50070

使用HDFS dfs命令对文件进行增删改查操作

2. 点击你刚才上传的文件,查看分块信息 

第0块:

使用HDFS dfs命令对文件进行增删改查操作

第1块:

使用HDFS dfs命令对文件进行增删改查操作

三、其他命令

hdfs dfs -ls /

hdfs dfs -put file /

hdfs dfs -mkdir /dirname

hdfs dfs -text /filename

hdfs dfs -rm /filename

Linux公社的RSS地址: https://www.linuxidc.com/rssFeed.aspx

本文永久更新链接地址: https://www.linuxidc.com/Linux/2018-08/153641.htm


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

数据驱动:从方法到实践

数据驱动:从方法到实践

桑文锋 / 电子工业出版社 / 2018-3 / 49

本书是从理论到实践的全面且细致的企业数据驱动指南,从作者的百度大数据工作说起,完整还原其从零到一构建百度用户行为大数据处理平台经历。详解大数据本质、理念与现状,围绕数据驱动四环节——采集、建模、分析、指标,深入浅出地讲述企业如何将数据驱动方案落地,并指出数据驱动的价值在于“数据驱动决策”、“数据驱动产品智能”。最后通过互联网金融、电子商务、企业服务、零售四大行业实践,从需求梳理、事件指标设计、数据......一起来看看 《数据驱动:从方法到实践》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

URL 编码/解码
URL 编码/解码

URL 编码/解码

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具