初识MapReduce的应用场景(附JAVA和Python代码)

栏目: Python · 发布时间: 5年前

内容简介:从这篇文章开始,我会开始系统性地输出在大数据踩坑过程中的积累,后面会涉及到实战项目的具体操作,目前的规划是按照系列来更新,力争做到一个系列在这篇是

从这篇文章开始,我会开始系统性地输出在大数据踩坑过程中的积累,后面会涉及到实战项目的具体操作,目前的规划是按照系列来更新,力争做到一个系列在 5 篇文章之内总结出最核心的干货,如果是涉及到理论方面的文章,会以画图的方式来讲解,如果是涉及到操作方面,会以实际的代码来演示。

这篇是 MapReduce 系列的第一篇,初识 MapReduce 的应用场景,在文章后面会有关于代码的演示。

前言

Hadoop 作为 Apache 旗下的一个以 Java 语言实现的分布式计算开源框架,其由两个部分组成,一个是分布式的文件系统 HDFS ,另一个是批处理计算框架 MapReduce 。这篇文章作为 MapReduce 系列的第一篇文章,会从 MapReduce 的产生背景、框架的计算流程、应用场景和演示 Demo 来讲解,主要是让大家对 MapReduce 的这个批计算框架有个初步的了解及简单的部署和使用。

目录

MapReduce 的产生背景

MapReduce 的计算流程

MapReduce 的框架架构

MapReduce 的生命周期

应用场景

演示 Demo

MapReduce的产生背景

Google 在2004年的时候在 MapReduce: Simplified Data Processing on Large Clusters 这篇论文中提出了 MapReduce 的功能特性和设计理念,设计 MapReduce 的出发点就是为了解决如何把大问题分解成独立的小问题,再并行解决。例如, MapReduce 的经典使用场景之一就是对一篇长文进行词频统计,统计过程就是先把文章分为一句一句,然后进行分割,最后进行词的数量统计。

MapReduce的架构图

初识MapReduce的应用场景(附 <a href='https://www.codercto.com/topics/22013.html'>JAVA</a> 和 <a href='https://www.codercto.com/topics/20097.html'>Python</a> 代码)

这里的Client和TaskTracker我都使用一个来简化了,在实际中是会有很个Client和TaskTracker的。

我们来讲解下不同的组件作用

  • Client

Client 的含义是指用户使用 MapReduce 程序通过 Client 来提交任务到 Job Tracker 上,同时用户也可以使用 Client 来查看一些作业的运行状态。

  • Job Tracker

这个负责的是资源监控和作业调度。 JobTracker 会监控着 TaskTracker 和作业的健康状况,会把失败的任务转移到其他节点上,同时也监控着任务的执行进度、资源使用量等情况,会把这些消息通知任务调度器,而调度器会在资源空闲的时候选择合适的任务来使用这些资源。

任务调度器是一个可插拔的模块,用户可以根据自己的需要来设计相对应的调度器。

  • TaskTracker

TaskTracker 会周期性地通过 Hearbeat 来向 Job Tracker 汇报自己的资源使用情况和任务的运行进度。会接受来自于 JobTaskcker 的指令来执行操作(例如启动新任务、杀死任务之类的)。

TaskTracker 中通过的是 slot 来进行等量划分一个节点上资源量,只用 Task 获得 slot 的时候才有机会去运行。调度器的作用就是进行将空闲的 slot 分配给 Task 使用,可以配置 slot 的数量来进行限定Task上的并发度。

  • Task

Task分为 Map TaskReduce Task ,在 MapReduce 中的 split 就是一个 Map Task , split 的大小可以设置的,由 mapred.max.spilt.size 参数来设置,默认是 Hadoop 中的 block 的大小,在 Hadoop 2.x 中默认是 128M ,在 Hadoop 1.x 中默认是 64M

Task 中的设置可以这么设置,一般来讲,会把一个文件设置为一个 split ,如果是小文件,那么就会存在很多的 Map Task ,这是特别浪费资源的,如果 split 切割的数据块的量大,那么会导致跨节点去获取数据,这样也是消耗很多的系统资源的。

MapReduce的生命周期

初识MapReduce的应用场景(附JAVA和Python代码)

一共分为5个步骤:

  1. 作业的提交和初始化

由用户提交作业之前,需要先把文件上传到 HDFS 上, JobClient 使用 upload 来加载关于打包好的 jar 包, JobClientRPC 创建一个 JobInProcess 来进行管理任务,并且创建一个 TaskProcess 来管理控制关于每一个 Task

  1. JobTracker调度任务

JobTracker 会调度和管理任务,一发现有空闲资源,会按照一个策略选择一个合适的任务来使用该资源。

任务调度器有两个点:一个是保证作业的顺利运行,如果有失败的任务时,会转移计算任务,另一个是如果某一个Task的计算结果落后于同一个Task的计算结果时,会启动另一个Task来做计算,最后去计算结果最块的那个。

  1. 任务运行环境

TaskTracker会为每一个Task来准备一个独立的JVM从而避免不同的Task在运行过程中的一些影响,同时也使用了操作系统来实现资源隔离防止Task滥用资源。

  1. 执行任务

每个Task的任务进度通过RPC来汇报给TaskTracker,再由TaskTracker汇报给JobTracker。

  1. 任务结束,写入输出的文件到HDFS中。

MapReduce 的计算流程

先来看一张图,系统地了解下 MapReduce 的运算流程。

初识MapReduce的应用场景(附JAVA和Python代码)

为了方便大家理解,重新画了一张新的图,演示的是关于如何进行把一个长句进行分割,最后进行词频的统计(已忽略掉标点符号)。

初识MapReduce的应用场景(附JAVA和Python代码)

整个过程就是先读取文件,接着进行 split 切割,变成一个一个的词,然后进行 map task 任务,排列出所有词的统计量,接着 sorting 排序,按照字典序来排,接着就是进行 reduce task ,进行了词频的汇总,最后一步就是输出为文件。例如图中的 spacedong 就出现了两次。

其中对应着的是 Hadoop Mapreduce 对外提供的五个可编程组件,分别是 InputFormatMapperPartitionerReduceOutputFormat ,后续的文章会详细讲解这几个组件。

用一句话简单地总结就是, Mapreduce 的运算过程就是进行拆解-排序-汇总,解决的就是统计的问题,使用的思想就是分治的思想。

MapReduce的应用场景

MapReduce 的产生是为了把某些大的问题分解成小的问题,然后解决小问题后,大问题也就解决了。那么一般有什么样的场景会运用到这个呢?那可多了去,简单地列举几个经典的场景。

  • 计算 URL 的访问频率

搜索引擎的使用中,会遇到大量的URL的访问,所以,可以使用 MapReduce 来进行统计,得出( URL ,次数)结果,在后续的分析中可以使用。

  • 倒排索引

Map 函数去分析文件格式是(词,文档号)的列表, Reduce 函数就分析这个(词,文档号),排序所有的文档号,输出(词, list (文档号)),这个就可以形成一个简单的倒排索引,是一种简单的算法跟踪词在文档中的位置。

  • Top K 问题

在各种的文档分析,或者是不同的场景中,经常会遇到关于 Top K 的问题,例如输出这篇文章的出现前 5 个最多的词汇。这个时候也可以使用 MapReduce 来进行统计。

演示 Demo

今天的代码演示从 PythonJava 两个版本的演示, Python 版本的话便是不使用封装的包, Java 版本的话则是使用了 Hadoop 的封装包。接下来便进行演示一个 MapReduce 的简单使用,如何进行词汇统计。

Java 版本代码

  • 先是准备一个数据集,包含着已经切割好的词汇,这里我们设置文件的格式是 txt 格式的。文件名是 WordMRDemo.txt ,内容是下面简短的一句话,以空格分割开:
hello my name is spacedong welcome to the spacedong thank you
  • 引入 Hadoop 的依赖包
//这里使用的是2.6.5的依赖包,你可以使用其他版本的
       <dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-common</artifactId>
			<version>2.6.5</version>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-client</artifactId>
			<version>2.6.5</version>
		</dependency>
复制代码
  • 新建 WordMapper.java 文件,代码的作用是进行以空格的形式进行分词。
public class WordMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
    @Override
    protected void map(LongWritable key, Text value, Mapper.Context context)
            throws java.io.IOException, InterruptedException {
        String line = value.toString();
        //StringTokenizer默认按照空格来切
        StringTokenizer st = new StringTokenizer(line);
        while (st.hasMoreTokens()) {
            String world = st.nextToken();
            //map输出
            context.write(new Text(world), new IntWritable(1));
        }
    }
}
复制代码
  • 新建 WordReduce.java 文件,作用是进行词汇的统计。
public class WordReduce extends Reducer<Text, IntWritable, Text, IntWritable> {

    @Override
    protected void reduce(Text key, Iterable<IntWritable> iterator, Context context)
            throws java.io.IOException ,InterruptedException {
        int sum = 0 ;
        for(IntWritable i:iterator){
            sum+=i.get();
        }
        context.write(key, new IntWritable(sum));
    }
  }
复制代码
  • 新建 WordMRDemo.java 文件,作用是运行 Job ,开始分析句子。
public class WordMRDemo {
    public static void main(String[] args) {
        Configuration conf = new Configuration();
        //设置mapper的配置,既就是hadoop/conf/mapred-site.xml的配置信息
        conf.set("mapred.job.tracker", "hadoop:9000");
        try {
            //新建一个Job工作
            Job job = new Job(conf);
            //设置运行类
            job.setJarByClass(WordMRDemo.class);
            //设置要执行的mapper类
            job.setMapperClass(WordMapper.class);
            //设置要执行的reduce类
            job.setReducerClass(WordReduce.class);
            //设置输出key的类型
            job.setMapOutputKeyClass(Text.class);
            //设置输出value的类型
            job.setMapOutputValueClass(IntWritable.class);
            //设置ruduce任务的个数,默认个数为一个(一般reduce的个数越多效率越高)
            //job.setNumReduceTasks(2);
            //mapreduce 输入数据的文件/目录,注意,这里可以输入的是目录。
            FileInputFormat.addInputPath(job, new Path("F:\\BigDataWorkPlace\\data\\input"));
            //mapreduce 执行后输出的数据目录,不能预先存在,否则会报错。
            FileOutputFormat.setOutputPath(job, new Path("F:\\BigDataWorkPlace\\data\\out"));
            //执行完毕退出
            System.exit(job.waitForCompletion(true) ? 0 : 1);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}
复制代码
  • 最后执行 WordMRDemo.java 文件,然后得到的结果是 out 文件夹内的内容,它长这个样子:
    初识MapReduce的应用场景(附JAVA和Python代码)

打开 part-r-00000 文件的内容如下

初识MapReduce的应用场景(附JAVA和Python代码)

Python代码版本

  • 新建 map.py 文件,进行词汇的切割。
for line in sys.stdin:
    time.sleep(1000)
    ss = line.strip().split(' ')
    for word in ss:
        print '\t'.join([word.strip(), '1'])
复制代码
  • 新建 red.py 文件,进行词汇的统计。
cur_word = None
sum = 0

for line in sys.stdin:
	ss = line.strip().split('\t')
	if len(ss) != 2:
		continue
	word, cnt = ss

	if cur_word == None:
		cur_word = word

	if cur_word != word:
		print '\t'.join([cur_word, str(sum)])
		cur_word = word
		sum = 0

	sum += int(cnt)

print '\t'.join([cur_word, str(sum)])
复制代码
  • 新建 run.sh 文件,直接运行即可。
HADOOP_CMD="/usr/local/src/hadoop-2.6.5/bin/hadoop"
STREAM_JAR_PATH="/usr/local/src/hadoop-2.6.5/share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar"

INPUT_FILE_PATH_1="/test.txt"
OUTPUT_PATH="/output"

$HADOOP_CMD fs -rmr -skipTrash $OUTPUT_PATH

# Step 1.
$HADOOP_CMD jar $STREAM_JAR_PATH \
    -input $INPUT_FILE_PATH_1 \
    -output $OUTPUT_PATH \
    -mapper "python map.py" \
    -reducer "python red.py" \
    -file ./map.py \
    -file ./red.py
复制代码

以上的是演示 demo 的核心代码,完整的代码可以上 github 的代码仓库上获取。 仓库地址为: https://github.com/spacedong/bigDataNotes

以上的文章是 MapReduce 系列的第一篇,下篇预告是 MapReduce的编程模型 ,敬请期待!

参考资料:

Hadoop的技术内幕:深入解析MapReduce架构设计及实现原理

初识MapReduce的应用场景(附JAVA和Python代码)

以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

C# Primer Plus

C# Primer Plus

Klaus Michelsen / Sams / 2001-12-15 / USD 49.99

C# Primer Plus is a tutorial based introduction to the C# language and important parts of the .Net Framework. Throughout the book the reader will be exposed to proven principles enabling him to write ......一起来看看 《C# Primer Plus》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

SHA 加密
SHA 加密

SHA 加密工具

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试