新手入门大数据 Hadoop基础与电商行为日志分析(二)

栏目: 编程工具 · 发布时间: 5年前

内容简介:HDFS:文件,块,副本假如:一个文件test.log,大小为200M,

HDFS:

文件,块,副本

假如:一个文件test.log,大小为200M,

一块(block),默认的blocksize是128M, 两个块=一个128M + 一个72M
  副本:HDFS默认3副本
 
  三个机器:node1:blk1 blk2 即使第一台机器挂掉了,也不影响
          node2:blk1
          node3:blk2
          node4:blk1 blk2

MapReduce:一个经典的wordcount的问题

文件内容:bear,apple,this,

some,you,love,apple,
     love,bear,this

先是split,分成一行一行的,然后map,每行的单个内容分开,{bear,1},{apple,1}{this,1}然后shuffle,{bear,[1,1]},{apple,[1,1]},{this,[1,1]},最后reduce得到最终结果{bear,2},{apple,2},{this,2}

YARN 资源调度器, Yet Another Resource Negotiator

负责整个集群的资源管理和调度

常用的hadoop发行版及选择:

Apache

优点:纯开源

缺点:不同版本/不同框架之间会有jar包冲突

CDH

优点:cm(cloudera manager)通过页面一键安装各种框架 升级

缺点:cm不开源

Hortonworks:HDP

优点:原装hadoop

缺点:企业级安全不开源


以上所述就是小编给大家介绍的《新手入门大数据 Hadoop基础与电商行为日志分析(二)》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

深入理解并行编程

深入理解并行编程

[美] Paul E.Mckenney(保罗·E·麦肯尼) / 谢宝友 鲁阳 / 电子工业出版社 / 2017-7-1 / 129

《深入理解并行编程》首先以霍金提出的两个理论物理限制为引子,解释了多核并行计算兴起的原因,并从硬件的角度阐述并行编程的难题。接着,《深入理解并行编程》以常见的计数器为例,探讨其不同的实现方法及适用场景。在这些实现方法中,除了介绍常见的锁以外,《深入理解并行编程》还重点介绍了RCU的使用及其原理,以及实现RCU的基础:内存屏障。最后,《深入理解并行编程》还介绍了并行软件的验证,以及并行实时计算等内容......一起来看看 《深入理解并行编程》 这本书的介绍吧!

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具