内容简介:面向Hadoop框架的高级语言:Apache Pig
Apache Pig是用来处理大规模数据的高级查询语言,配合 Hadoop使用,可以在处理海量数据时达到事半功倍的效果,比使用Java,C++等语言编写大规模数据处理程序的难度要小N倍,实现同样的效果的代码量也小N倍。Apache Pig为大数据集的处理提供了更高层次的抽象,为mapreduce算法(框架)实现了一套类 SQL 的数据处理脚本语言的 shell 脚本,在Pig中称之为Pig Latin,在这套脚本中我们可以对加载出来的数据进行 排序 、过滤、求和、分组(group by)、关联(Joining),Pig也可以由用户自定义一些函数对数据集进行操作,也就是传说中的UDF(user-defined functions)。
Pig有两种运行模式:Loca模式和MapReduce模式。当Pig在Local模式下运行时,Pig只访问本地一台主机;当Pig在 MapReduce模式下运行时,它将访问一个Hadoop集群和HDFS的安装位置。这时,Pig将自动地对这个集群进行分配和回收。因为Pig系统可以自动对MapReduce程序进行优化,所以当用户使用Pig Latin语言进行编程的时候,不必关心程序运行的效率,Pig系统将会自动对程序进行优化,这样可以大了节省编程时间。Pig的Local模式和 MapReduce模式都有三种运行方式,分别为:Grunt Shell方式、脚本文件方式和嵌入式程序方式。
Pig是一种编程语言,它简化了Hadoop常见的工作任务。Pig可加载数据、表达转换数据以及存储最终结果。Pig内置的操作使得半结构化数据变得有意义(如日志文件)。同时Pig可扩展使用 Java 中添加的自定义数据类型并支持数据转换。
Pig在数据类型上的设计理念总结为一句口号:pig吃任何东西,输入数据可以支持任何格式,pig天生支持那些流行的格式,如制表符分隔的文本文件,用户也可以增加函数支持其他的数据格式文件,pig不需要元数据或者数据的schma,但如果有也可以利用。
Apache Pig基本架构
Pig的实现5个主要部分构成:
Pig自己实现的一套框架对输入、输出的人机交互部分的实现,就是Pig Latin 。
Zebra是Pig与HDFS/Hadoop的中间层、Zebra是MapReduce作业编写的客户端,Zerbra用结构化的语言实现了对 hadoop物理存储元数据的管理也是对Hadoop的数据抽象层,Zebra中有2个核心的类 TableStore(写)/TableLoad(读)对Hadoop上的数据进行操作。
Pig中的Streaming主要分为4个组件: 1. Pig Latin 2. 逻辑层(Logical Layer) 3. 物理层(Physical Layer) 4. Streaming具体实现(Implementation),Streaming会创建一个Map/Reduce作业,并把它发送给合适的集群,同时监视这个作业的在集群环境中的整个执行过程。
MapReduce在每台机器上进行分布式计算的框架(算法)。
HDFS最终存储数据的部分。
与Hive对比
Language:在Hive中可以执行 “插入/删除”等操作,但是Pig中我没有发现有可以“插入”数据的方法。
Schemas:Hive中至少还有一个“表”的概念,但是Pig中我认为是基本没有表的概念,所谓的表建立在Pig Latin脚本中,对与Pig更不要提metadata了。
Partitions:Pig中没有表的概念,所以说到分区对于Pig来说基本免谈,如果跟Hive说“分区”(Partition)他还是能明白的。
Server:Hive可以依托于Thrift启动一个服务器,提供远程调用。Pig没有发现有这样的功能。
Shell:在Pig 你可以执行一些个 ls 、cat 这样很经典、很cool的命令,但是在使用Hive的时候我压根就没有想过有这样的需求。
Web Interface:Hive有,Pig无
JDBC/ODBC:Pig无,Hive有
Pig的应用场景
数据查询只面向相关技术人员
即时性的数据处理需求,这样可以通过pig很快写一个脚本开始运行处理,而不需要创建表等相关的事先准备工作。
Pig包括:
Pig Latin, 类SQL数据处理语言
在Hadoop上运行的Pig Latin执行引擎,将pig脚本转换为map-reduce程序在hadoop集群运行
Pig的优点:
编码简单
对常见的操作充分优化
可扩展。自定义UDF
Pig主要用户
Yahoo!: 90%以上的MapReduce作业是Pig生成的
Twitter: 80%以上的MapReduce作业是Pig生成的
Linkedin: 大部分的MapReduce作业是Pig生成的
其他主要用户: Salesforce, Nokia, AOL, comScore
Pig的主要开发者
Hortonworks
Yahoo!
Cloudera
Pig工具
Piggybank(Pig官方函数库)
Elephant bird: Twitter的Pig函数库
DataFu: Linkedin的Pig函数库
Ambros: Twitter的Pig作业监控系统
Mortardata: 基于云的Pig集群管理系统
Pig定位
Pig Latin语言和传统的数据库语言很相似,但是Pig Latin更侧重于数据查询。而不是对数据进行修改和删除等操作。pig语句通常按照如下的格式来编写。
通过LOAD语句从文件系统读取数据
通过一系列”转换”语句对数据进行处理
通过一条STORE语句把处理结果输出到文件系统中,或者使用DUMP语句把处理结果输出到屏幕上。
LOAD和STORE语句有严格的语法规定。关键是灵活使用转换语句对数据进行处理。
Pig Latin的特性:
易于编程。实现简单的和高度并行的数据分析任务非常容易。
自动优化。任务编码的方式允许系统自动去优化执行过程,从而使用户能够专注于逻辑,而非效率。
可扩展性,用户可以轻松编写自己的函数用于特殊用途的处理。
Pig Latin 程序有一系列的 operation 和 transformation 组成。每个操作或变换对输入进行数据处理,然后产生输出结果。这些操作整体上描述了一个数据流。Pig 内部,这些变换操作被转换成一系列的 MapReduce 作业。Pig 不适合所有的数据处理任务,和 MapReduce 一样,它是为数据批处理而设计的。如果只想查询大数据集中的一小部分数据,Pig 的实现不会很好,因为它要扫描整个数据集或绝大部分。
参考资料
Pig网址:http://pig.apache.org
以上所述就是小编给大家介绍的《面向Hadoop框架的高级语言:Apache Pig》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- Dojo 6 发布,面向对象的 JS 框架
- 面向Hadoop框架的高级语言:Apache Pig
- 面向Hadoop框架的高级语言:Apache Pig
- Layui 2.1.1 发布,面向前后端 UI 框架
- Ray,面向新兴 AI 应用的分布式框架
- 2019年面向开发人员的14个最佳NodeJS框架
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
区块链与人工智能:数字经济新时代
高航、俞学劢、王毛路 / 电子工业出版社 / 2018-7-23 / 80
《区块链与人工智能》是畅销书《区块链与新经济:数字货币2.0时代》全新修订升级版。本书是市场上为数不多的系统阐述区块链、人工智能技术与产业的入门级系统教程。从比特币到各类数字货币(代币),从基础原理到应用探讨,全景式呈现区块链与人工智能的发展脉络,既有历史的厚重感也有科技的未来感。本书的另一个亮点是系统整理了区块链创业地图,是一本关于区块链创业、应用、媒体的学习指南,以太坊创始人Vitalik专门......一起来看看 《区块链与人工智能:数字经济新时代》 这本书的介绍吧!