内容简介:指定数据库表作为输入。
1. Kettle
的简单介绍
Kettle
(现名 Data Integration
)是一款使用 Java
编写的功能强大的 ETL
( Extract Transform and Load
)工具,支持关系型数据库( PostgreSQL
、 MySQL
、 Oracle
等)、非关系型数据库( MongoDB
、 ElasticSearch
等)以及文件之间的大规模数据迁移。
2. 常用组件
Kettle
提供了极为丰富的组件库,下面列举的是它的一些常用组件,以及对组件的常用参数进行简单介绍,详细的参数说明可参考 Kettle
的帮助文档。
2.1 Table input
指定数据库表作为输入。
-
Step name
: 步骤名称,Kettle
的每一个组件即一个步骤,可为该步骤取一个别名 -
Connection
: 指定数据库连接 -
SQL
: 编写SQL
,从该数据库表中筛选出符合条件的数据
2.2 Table output
指定数据库表作为输出
-
Step name
: 步骤名称 -
Connection
: 指定数据库连接 -
Target schema
: 输出的数据库表模式 -
Target table
: 指定输出的数据库表 -
Use batch update for inserts
: 是否使用批处理进行插入 -
Database fields
: 配置字段映射关系-
Table field
: 输出的数据库表字段 -
Stream field
: 流字段(流入该组件的数据字段)
-
2.3 Sort rows
按照某字段进行排序
-
Step name
: 步骤名称 -
Fields
:-
Fieldname
: 排序的字段名 -
Ascending
: 排序方式
-
2.4 Merge join
将不同来源数据进行融合,类似于 SQL
中的 join
,注意: 该组件接收的数据必须按照 join
字段按照相同规则进行排序,否则 join
后的数据会有丢失。
-
Step name
: 步骤名称 -
First Step
: 需要融合的一组数据 -
Second Step
: 需要融合的另一组数据 -
Join Type
: 融合的类型 -
Keys for 1st step
:First Step
中进行融合的字段 -
Keys for 2nd step
:Second Step
中进行融合的字段
2.5 Add sequence
读取指定的序列值
-
Step name
: 步骤名称 -
Name of value
: 序列值别名 -
Use DB to get sequence
: 是否使用数据库序列 -
Connnection
: 数据库连接 -
Schema name
: 数据库模式名称 -
Sequence name
: 序列名
2.6 Modified Java Script Value
支持编写 JavaScript
脚本,用于实现必要的业务逻辑
-
Step name
: 步骤名称 -
Java script functions
: 提供了一些JavaScript
函数 -
Java script
: 脚本编辑窗口 -
Fields
: 可将脚本中的定义的变量映射出去
3. 在实际场景中的应用
在软件开发中,经常会遇到这样的场景: 新开发的系统即将替换老系统,而老系统庞大的数据需迁移到新系统中,但数据结构与新系统不完全兼容,下面通过一个简单的例子来介绍 Kettle
是如何处理这些老数据,完成数据迁移任务的。
3.1 老数据结构
-
company
公司表:
-
district
区域表:
该表存储了省市区,通过parent_id进行关联
-
company_district
公司区域表:
-
employee
员工表:
-
employee_company
员工公司表:
3.2 新数据结构
-
company
公司表:
对比老数据 company
表,新的 company
表中新增了 district
、 city
、 province
字段,他们可以从老数据 company_district
表和 district
表中取得; contact
字段对应 tel
字段; addr
对应 address
。
-
employee
员工表:
对比老数据 employee
表,新的 employee
表中新增 company_id
字段且有外键约束; sex
字段由原来的1、2变更为男、女
3.3 数据迁移
由于 employee
有外键关联 company
,因此先迁移 company
表数据,新的 company
表需新增 old_id
字段来保存老的 company
表的 id
,用于员工关联公司。
3.3.1 company
表
数据迁移前的分析:
- 打开
Kettle
,点击File
->new
->Transformation
,新建一个转换流程 - 点击左侧
Design``Tab
页,将Table input
组件拖拽至右侧转换流程窗口,在组件上右键点击edit
,弹出该组件的编辑窗口,设置步骤名称、数据库连接和SQL
语句,如下图所示:
- 将
company
和company_district
数据进行left join
,join
之前需按照join
字段排序,将Sort rows
组件拖拽至右侧转换流程窗口,并进行编辑,如下图所示:
- 将
Merge Join
组件拖拽至右侧,并进行编辑,如下图所示:
- 将
company
和company_district``Merge Join
的结果和district
数据分别进行排序,同上面步骤 - 将两者进行
join
,同上面步骤
- 添加
Add sequence
组件,并进行编辑,如下图所示:
- 添加
Table output
组件,并进行编辑,如下图所示:
- 整体流程如下图所示:
- 点击启动按钮执行整个流程,直至所有步骤右上角出现绿色的箭头,
company
表便完成了迁移。
3.3.2 employee
表
数据迁移前的分析:
- 与
company
的数据迁移类似,添加三个Table input
组件,并进行编辑 - 分别将
employee
和employee_company
按照join
字段进行统一排序 - 将 排序 的结果进行
join
- 分别将新的
company
和join
之后的结果按照join
字段进行统一排序 - 将排序的结果进行
join
- 编写脚本,转换
sex
字段
- 读取新的
employee
序列值 - 输出到新的
employee
表中 - 整体流程如下图所示:
- 点击启动按钮执行整个流程,直至所有步骤右上角出现绿色的箭头,
employee
表便完成了迁移。
3.4 结果
-
company
表
-
employee
表
至此,便完成了老数据的迁移。
4. 遇到的问题
在 Kettle
使用过程中会发现,当需要进行迁移的数据量较为庞大时(千万级),常常会出现 内存溢出
的问题,解决方法是将 Kettle
内存调高些: 打开 spoon.sh
文件,找到 PENTAHO_DI_JAVA_OPTIONS="-Xms1024m -Xmx2048m -XX:MaxPermSize=256m"
,将其修改为 PENTAHO_DI_JAVA_OPTIONS="-Xms16384m -Xmx32768m -XX:MaxPermSize=16384m"
,重启即可。
以上所述就是小编给大家介绍的《开源ETL利器——Kettle的实战教程》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 开源其 AIOps 落地三大利器
- 开源 Docker 管理利器 DockerFly v20170526 发布
- 重磅开源|AOP for Flutter开发利器——AspectD
- 开源诊断利器Arthas ByteKit 深度解读(1):基本原理介绍
- 强大的开源企业级数据监控利器Lepus安装与配置管理
- Golang 数据可视化利器 go-echarts 开源啦
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。