内容简介:认真阅读上篇文章的朋友会发现,Streamsets 能够实时跟踪数据的变化,将数据同步更新到 hbase 中。但是对于历史数据(并且数据不改动的记录)的同步,文章中并没有提及到。当然,并不是因为 Streamsets 不能从事这些事情,而是笔者暂时没有使用它来进行历史数据的迁移。因此,对于历史数据的迁移,笔者今天来介绍另外一个工具 - Sqoop。相对于 Streamsets,大家应该更加熟悉 Sqoop。如果你工作中需要将关系型数据库(Mysql、Oracle等等)中的数据同步到 hadoop(HDFS、
上篇文章 Mysql 到 Hbase 数据如何实时同步,强大的 Streamsets 告诉你 我们说到了如何使用 Streamsets 来进行 mysql 到 hbase 的数据实时同步(迁移)。使用 Streamsets 的优点是部署简单,配置灵活,无需编写代码。
认真阅读上篇文章的朋友会发现,Streamsets 能够实时跟踪数据的变化,将数据同步更新到 hbase 中。但是对于历史数据(并且数据不改动的记录)的同步,文章中并没有提及到。当然,并不是因为 Streamsets 不能从事这些事情,而是笔者暂时没有使用它来进行历史数据的迁移。因此,对于历史数据的迁移,笔者今天来介绍另外一个工具 - Sqoop。相对于 Streamsets,大家应该更加熟悉 Sqoop。
如果你工作中需要将关系型数据库(Mysql、Oracle等等)中的数据同步到 hadoop(HDFS、hive、hbase) 中,或者将 hadoop 中的数据同步到关系型数据库中,那这篇文章应该能帮助到你。
注:Streamsets 以及 Sqoop 都属于数据同步、迁移方面比较流行的解决方案,类似的 工具 还有很多,比如 Datax、kettle 等等,从事数据方面工作的朋友可以去多多了解,找到适合自己工作场景的方案。
认识一下
Sqoop 的命名,仔细一看是不是有点像 sql 和 hadoop 两个词语的拼接产物。其实从它的命名来看也就很明显:它是用来将关系型数据库和 Hadoop 中的数据进行相互转移的工具,并且这种转换是双向的。看下图就能一目了然:
从关系型数据库到 hadoop 我们称之为 import,从 hadoop 到关系型数据库我们称之为 export。文章后面大家就会看到 "import"、"export" 对应命令的两个模式。
安装
对于 Sqoop 的安装,这里就不做介绍了,网上有很多的教程,因为是一个工具,所以安装起来也是很方便简单。需要注意的是 Sqoop 有两个大的版本:Sqoop1、Sqoop2。
访问 Sqoop 官网 ,官网上的 1.4.x 的为 Sqoop1, 1.99.* 为 Sqoop2。
关于 Sqoop1 与 Sqoop2 的区别,通俗来讲就是:
-
sqoop1 只是一个客户端工具,Sqoop2 加入了 Server 来集中化管理连接器
-
Sqoop1 通过命令行来工作,工作方式单一,Sqoop2 则有更多的方式来工作,比如 REST api接口、Web 页
-
Sqoop2 加入权限安全机制
对于笔者来说,Sqoop 就是一个同步工具,命令行足够满足工作需求,并且大部分数据同步都是在同一个局域网内部(也就没有数据安全之类问题),所以选择的是 Sqoop1(具体版本是 1.4.6)
框架原理
通过上图可以看出, Sqoop Client 通过 shell 命令来使用 sqoop, sqoop 中的 Task Translater 将命令转换成 hadoop 中的 mapreduce 任务进行具体的数据操作。可以这样理解,例如 Mysql 中某个表数据同步到 hadoop 这个场景,Sqoop 会将表记录分成多份,每份分到各自 mapper 中去进行落地 hadoop(保证同步效率)。大家可能发现,其实这里的 mapreduce 没有 reduce,只有 map。
实操
了解了 Sqoop 是什么,能做什么以及大概的框架原理,接下来我们直接使用 Sqoop 命令来感受一下使用 Sqoop 是如何简单及有效。本文案例中的关系型数据库使用的是 mysql,oracle 以及其他使用 jdbc 连接的关系型数据库操作类似,差别不大。
运行 sqoop help 可以看到 Sqoop 提供了哪些操作,如下图
这些操作其实都会一一对应到 sqoop bin 目录下的一个个可运行脚本文件,如果想了解细节,可以打开这些脚本进行查看
工作中一般常用的几个操作或者命令如下:
-
list-databases : 查看有哪些数据库
-
list-tables : 查看数据库中有哪些表
-
import : 关系型数据库到 hadoop 数据同步
-
export : hadoop 到关系型数据库数据同步
-
version :查看 Sqoop 版本
列出数据库
列出表
mysql 到 hdfs
--connect : 数据库的 JDBC URL,后面的 databasename 想要连接的数据库名称
--table : 数据库表
--username : 数据库用户名
--password : 数据库密码
--target-dir : HDFS 目标目录
--fields-terminated-by :数据导入后每个字段之间的分隔符
-m :mapper 的并发数量
--check-column : 指定增量导入时的参考列,这里是 id (主键)
--last-value : 上一次导入的最后一个值
--incremental append :导入方式为增量
注意:工作中需要增量同步的场景下,我们就可以使用 --incremental append 以及 --last-value。比如这里我们使用 id 来作为参考列,如果上次同步到了 1000, 这次我们想只同步新的数据,就可以带上参数 --last-value 1000。
mysql 到 hive
使用 imort --create-hive-table
mysql 到 hbase
首先进入 hbase shell,创建好 namespace 以及 数据库。database tmp 位命名空间,table tmp 为数据库。
hdfs 到 mysql
--columns : 制定导出哪些列
hive 到 mysql
了解 hive 的朋友都知道,hive 的真实数据其实就是 hdfs 磁盘上的数据,所以 hive 到 mysql 的同步操作与 hdfs 到 mysql 的操作类似
hbase 到 mysql
目前 Sqoop 没有提供直接将 hbase 数据同步到 mysql 的操作
总结: 在 sql to hadoop 和 hadoop to sql 这种数据同步场景,Sqoop 是一个很有效且灵活的工具,大家不妨使用它来从事数据方面的工作。
以上所述就是小编给大家介绍的《MySQL 与 Hadoop 数据同步之 Sqoop 详解》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 运维必备!Linux 远程数据同步工具详解
- 五大实例详解,携程 Redis 跨机房双向同步实践
- 五大实例详解,携程 Redis 跨机房双向同步实践
- 五大实例详解,携程 Redis 跨机房双向同步实践
- logstash_output_kafka:Mysql 同步 Kafka 深入详解
- Go语言同步与异步执行多个任务封装详解(Runner和RunnerAsync)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
C++数据结构与程序设计
克鲁斯 / 钱丽萍 / 清华大学出版社 / 2004-1 / 59.00元
《C++数据结构与程序设计》这本精心制作的课本结合面向对象程序设计和C++强有力的特性,构建数据结构的基本思想,设计了程序和有趣的应用。在此过程中,《C++数据结构与程序设计》探讨了作为软件设计基本工具的问题求解和设计原理、数据抽象、递归和算法的比较分析。《C++数据结构与程序设计》使用真实的案例研究、可重用的软件开发和程序设计项目来增强理解。一起来看看 《C++数据结构与程序设计》 这本书的介绍吧!
Base64 编码/解码
Base64 编码/解码
RGB CMYK 转换工具
RGB CMYK 互转工具