Spark入门介绍

栏目: 编程工具 · 发布时间: 5年前

内容简介:Apache Spark 是用Scala语言开发的专为大数据处理而设计的计算引擎,类似于Hadoop MapReduce框架,Spark拥有Hadoop MapReduce所具有的优点,即Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark有很多组件来解决使用Hadoop MapReduce时出现的问题。Spark有以下组件:Spark Core是大规模并行和分布式数据处理的基础引擎。 核心是分布式执行引

Apache Spark 是用Scala语言开发的专为大数据处理而设计的计算引擎,类似于Hadoop MapReduce框架,Spark拥有Hadoop MapReduce所具有的优点,即Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

Spark组件介绍,下图蓝色部分。

Spark入门介绍

Spark有很多组件来解决使用Hadoop MapReduce时出现的问题。Spark有以下组件:

  • Spark Core
  • Spark Streaming
  • Spark SQL
  • GraphX
  • MLlib (Machine Learning)

Spark Core

Spark Core是大规模并行和分布式数据处理的基础引擎。 核心是分布式执行引擎,Java,Scala和Python API为分布式ETL应用程序开发提供了一个平台。 此外,在核心上构建的其他库允许用于流式传输,SQL和机器学习的各种工作负载。 它负责:

  • 内存管理和故障恢复
  • 在群集上调度,分发和监视作业
  • 与存储系统交互

Spark Streaming

Spark Streaming是Spark的组件,用于处理实时流数据。支持实时数据流的高吞吐量和容错流处理。 基本流单元是DStream,它基本上是一系列用于处理实时数据的RDD(弹性分布式数据集)。

Spark SQL

Spark SQL是Spark中的一个新模块,它使用Spark编程API实现集成关系处理。 它支持通过 SQL 或Hive查询查询数据。 对于那些熟悉RDBMS的人来说,Spark SQL将很容易从之前的 工具 过渡到可以扩展传统关系数据处理的边界。

Spark SQL通过函数编程API集成关系处理。 此外,它为各种数据源提供支持,并且使用代码转换编织SQL查询,从而产生一个非常强大的工具。以下是Spark SQL的四个库。

  • Data Source API
  • DataFrame API
  • Interpreter & Optimizer
  • SQL Service

GraphX

GraphX是用于图形和图形并行计算的Spark API。 因此,它使用弹性分布式属性图扩展了Spark RDD。

MlLib (Machine Learning)

MLlib代表机器学习库。 Spark MLlib用于在Apache Spark中执行机器学习。

Spark架构分布

下面来看看spark各个节点的分布图,如下

Spark入门介绍

Spark采用的是Master-Slave模型,从上面可以看出分为四个部分,Client、Driver、ClusterManager、Worker。

  • client:客户端进程,负责提交job到master
  • Driver:运行Application,主要是做一些job的初始化工作,包括job的解析,DAG的构建和划分并提交和监控task
  • Cluster Manager:在standalone模式中即为Master主节点,控制整个集群,监控worker,在YARN模式中为资源管理器ResourceManager
  • Worker:负责管理本节点的资源,定期向Master汇报心跳,接收Master的命令,启动Driver。Executor,即真正执行作业的地方,一个Executor可以执行一到多个Task

使用基于Hadoop的Spark

Spark与Hadoop兼容性的。 因此,这是一种非常强大的技术组合。Hadoop组件可以通过以下方式与Spark一起使用:

  • HDFS:Spark可以在HDFS之上运行,以利用分布式存储。
  • MapReduce:Spark可以与MapReduce一起用于同一个Hadoop集群,也可以单独作为处理框架使用。
  • YARN:可以使Spark应用程序在YARN上运行。
  • 批处理和实时处理:MapReduce和Spark一起使用,其中MapReduce用于批处理,Spark用于实时处理。

Spark各组件应用场景

Spark的生态系统主要包含了Spark Core、Spark SQL、Spark Streaming、MLLib和GraphX 等组件。Spark生态系统组件的应用场景:

Spark入门介绍

有了Hadoop,为什么使用spark

1、Spark Streaming是基于Spark实现的高吞吐与低延迟的分布式流处理系统。与Hadoop Storm相比,两者在功能上是一致的,都实现了数据流的实时处理;但Storm的延迟在豪秒级别,而Spark Streaming是在秒级别,所以在一些实时响应要求高的应用场景中,需要使用Storm。

2、由于Hadoop生态系统中的一些组件所实现的功能,目前是无法由Spark取代的,比如Storm、HDFS。现有的Hadoop组件开发的应用,完全转移到Spark上需要一定的成本,不同的计算框架统一运行在YARN中,可以带来如下好处:

  • 计算资源按需伸缩
  • 不用负载应用混搭,集群利用率高
  • 共享底层存储,避免数据跨集群迁移

3、实际上,Spark可以看作是Hadoop MapReduce的一个替代品而不是Hadoop的替代品。

Hadoop和Spark优缺点

  • 使用Hadoop进行迭代计算非常耗资源。MapReduce是把中间结果写入到HDFS中,带来了大量的数据复制、磁盘IO和序列化开销。
  • Spark将中间结果保存在内存中,之后的迭代计算都可以直接使用内存中的中间结果作运算,避免了从磁盘中频繁读取数据。
  • Hadoop Storm在实时延迟度上比Spark Streaming好很多,前者是纯实时(纯实时的流式处理框架,即来一条数据就处理一条数据),后者是准实时(对一个时间段内的数据收集起来再做处理)。而且,Storm的事务机制、健壮性 / 容错性等特性,都要比Spark Streaming更加优秀。

spark三种部署模式区别和介绍

Spark支持的主要三种分布式部署方式分别是standalone、spark on mesos和 spark on YARN。

  • standalone模式,即独立模式,自带完整的服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统。它是Spark实现的资源调度框架,其主要的节点有Client节点、Master节点和Worker节点。
  • spark on yarn模式,yarn是统一的资源管理机制,在上面可以运行多套计算框架,如map reduce、storm等根据driver在集群中的位置不同,分为yarn client和yarn cluster。生产环境上一般使用yarn cluster模式。
  • spark on mesos模式,mesos是一个更强大的分布式资源管理框架,它允许多种不同的框架部署在其上,包括yarn。

一般,Spark使用CDH安装部署,具体步骤,请参考: Centos7安装大数据平台CDH 6.2


以上所述就是小编给大家介绍的《Spark入门介绍》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

计算机操作系统

计算机操作系统

/ 西安电子科技大学出版 / 1984-11 / 19.60元

一起来看看 《计算机操作系统》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具