内容简介:Delta 原本是在 Databricks Runtime 里面的一个增值功能,在 Spark + AI Summit 2019 大会上,官方以 Apache License 2.0 协议开源。最近抽时间对官方文档做了翻译,同时拉下来源码看了一遍,感觉文档和代码都蛮干净利索的,符合 Databricks 官方的一贯风格。
Delta 原本是在 Databricks Runtime 里面的一个增值功能,在 Spark + AI Summit 2019 大会上,官方以 Apache License 2.0 协议开源。
Spark 一直在往批流统一的方向上演进,有了 Structured Streaming 之后,就实现引擎内核的批流统一,API 也高度统一,比如一个流式任务和离线任务的代码可能只有 read/write 和 readStream/writeStream 的区别, 现在官方在这条道路上又往前走了一大步,这一次提供的 Delta 给我们带来了统一的数据存储,Delta 底层使用 Parquet 存储数据,支持多版本数据,支持 Schema 演进,并提供了一个 Spark 的计算适配层,你可以对 Delta 并发写,即使在多个集群上并发写都没问题,你也可以一边写一边读,无论是批着写,流着读,还是流着写,批着读,Delta都能满足你,这样来看,是不是批流得到了极大的统一,计算层面得到了统一,存储层面也得到了统一。
最近抽时间对官方文档做了翻译,同时拉下来源码看了一遍,感觉文档和代码都蛮干净利索的,符合 Databricks 官方的一贯风格。
基础教程
Delta Delta 基础教程 Quickstart
http://spark.coolplayer.net/?p=3683
在 Spark 批处理中读写 Delta
http://spark.coolplayer.net/?p=3713
Structured Streaming 读写 Delta
http://spark.coolplayer.net/?p=3715
Delta 乐观锁并发事务控制
http://spark.coolplayer.net/?p=3717
Delta 常见问题
http://spark.coolplayer.net/?p=3722
实践例子
打包编译 delta,只需要运行 sbt package 就可以了,打包编译的时候, 这时候一定要注意, 编译 spark 的 scala 版本和 delta 的 scala 编译版本一定要保持一致,delta 默认配合 spark 2.4.2 才可以使用,官网提供的默认都是基于 scala 2.12 的,你自己编译 delta 也要保证 scala 是 2.12 的,否则会报错:
我们在 spark-shell 中启动一个 structured streaming job,启动命令,使用 --jars 带上需要的包:
我们在 spark-shell 中启动一个流,读取kafka 数据,然后写入 delta,代码如下:
执行一段时间,我们来看下 checkpointLocation 目录里面的文件,下文中,我会解释这些文件都是干啥的,以及文件内容的含义。
Delta 核心原理
整体看下来,Delta 实现的蛮简单的,我们基于上文中的例子,我解释说明一下delta的一些实现。
Delta 支持数据的多版本管理,在批读取的时候,可以使用 Time Travel 功能指定你获取哪个版本, 这个版本是怎么来的呢,什么动作会触发产生一个新版本,通过在 spark shell 里面测试,在_delta_log 目录下面,保存很多的 json 文件:
文件名后缀从0依次变大,这里的 0 到 28 就代表 Delta Lake 的数据版本。
每个版本的 json 文件里面保存了,这个版本的 commitInfo, 每个 commitInfo 就代表一次提交,一次对 Delta Lake 数据的变动。每次提交变动就会产生一个新版本,所以如果我们使用 Structured Streaming 从 Kafka 读取数据流式写入 Delta , 每一次微批处理就会产生一个数据新版本, 下面这个图例中展示了0这个批次提交的操作类型为 STREAMING UPDATE(流式更新),epochId为0, 写入的模式是Append,还有Structured Streaming 的queryId:
然后是这次提交记录的事务信息,version 为0, 就指定这次提交后,数据的版本为0, 和 上面提交信息的 epochId 是一一对应的。
json 文件中剩下的部分就是本次提交对 Delta Lake 产生的文件变化日志,注意这里记录的是 Action 动作,跟数据库里面的 redo 日志一样,可以看到,我们demo中消费的topic一共3个分区,所以每个batch 会落地3个文件到 delta,所以每次增加 3个 parquet 文件。
我们都知道,对于数据库,我们如果有全部的 redo 日志,我们就可以从任意一个时间点数据库的状态对数据进行 redo replay 从而得到我们想要的任何状态。
这里 Delta 也是一样的,不过数据变动的最小粒度是文件,我们例子中,每次数据版本变化都是增加了3个文件,0 到 28 个 json 文件中都记录了每次变动文件 delta 日志,这些 Delta日志中记录了对文件命名空间的变动(包括 add增加一个文件 和 remove删除一个文件两类),这样我们从任意一个 文件命名空间的状态开始,都可以对命名空间 replay delta日志,到下一个命名空间的状态。
如果说到这里,我们很自然的就想到一个问题就是要有检查点,就是过一段时间,要对 命名空间进行 checkpoint, 不然每次都从 0 开始重放恢复,依赖链会过长,这个会导致性能问题和内存stackoverflow 文件。
下图中 S0 ~ Sn 都代表delta 命名空间的状态,也就是 Snapshot0 ~ SnapshotN, D0 ~ DN代表Delta日志,C10 代表 /delta/events/_delta_log/00000000000000000010.checkpoint.parquet 这个 checkpoint 文件。
所以 Delta 也是这样做的,我们可以看到,Delta 默认10个版本就会做一次checkpoint(比如图解中的C10), 这样的话,如果我们需要获取第11个版本的数据,只需要load 进来 /delta/events/_delta_log/00000000000000000010.checkpoint.parquet 这个checkpoint 文件,然后replay /delta/events/_delta_log/00000000000000000011.json 这一个 deltalog 日志就可以了。
Delta log 中还有一部分记录当前这个表的meta信息, 我们测试中使用的是kafka数据源,产生的 DataFrame 就是key,value,topic,partitiion,timestamp等字段,这里就记录着这些字段的元信息。
通过以上的例子,我们可以看到Delta 的基本玩法了,我们也知道 Deltalog日志里面都记录的哪些东西(版本信息,提交信息,Action日志,meta信息)。
下面我们看下 DeltaLog 这个核心的类实现
代码贴太多影响理解,我尽量抽取一些特别重要的类和方法来说明,
我们可以看到 DeltaLog 继承了 Checkpoint 方法,所以会在指定的时间间隔内把内存中的命名空间,checkpoint 到文件系统中,这样就相当于固化落地了一个状态(图例中的C10),所以我们需要某个版本的状态时候,就不需要从头开始去一个一个 deltalog 文件去replay 重放了,只需要找到最靠近的 checkpoint 文件,然后去replay 就好了, 我们上文中已经举例说明。注意这里的 checkpoint 文件也是 parquet 格式的。
我们在提交事务的时候,就会调用这里的update 方法,来异步的更新内存中的 文件命名空间,产生一个新的内存空间的 Snapshot, 注意这里每次产生的 Snapshot 都是上一个版本的Snapshot的引用加上本次增量更新的 delta 文件,也就是每次新的状态实例都是上一次状态的加上一些 deltalog 日志文件。还有一个 参数 maxSnapshotLineageLength控制依赖长度 ,这个依赖的血缘关系不能太长,不然会产生 StackOverflowError, 所以超过这个长度后,就会从头构建这个 SnapShot,原理就是找到最近的一个 checkpoint 文件,load进来命名空间,然后再 replay 最新的一些 deltalog 文件,从而斩断依赖链。
还有一个 LogStoreProvider, 这个是提供保存我们上文说的这些文件的存储,默认是用 HDFSLogStoreImpl 来实现的。
getsnapshotAt 这个方法很重要,Delta 就是使用这个逻辑来实现 Time Travel 功能,这里的逻辑是找到靠近指定版本最近的 checkpoint 文件,然后再replay 从这个checkpoint 的版本到需要的版本之间的几个 deltalog文件,就可以获取指定版本的状态文件了。比如上文例子中,我们需要23 版本的数据集,我们只需要 load 20 版本的checkpoint 文件,然后 replay 21,22,23 三个 deltalog 文件就可以了。
还有一个方法是 startTransaction,我们从外面进行并发的读写,都需要从 Deltalog 这个类实例中获取一个乐观事务管理器,否则可能就不会检查冲突。
比如我们在 Structured Streaming 里面流式输出的时候:
就会先申请一个 乐观事务管理器(这里说明下为啥要用乐观锁,这种方式在数据湖场景下面很适用,因为多次写入/修改相同的文件很少发生, 然后输出文件,然后提交,下面是并发写事务的3个阶段:
-
Read: 读取最新版本的数据,作为一个数据集的一个 snapshot,每次获取乐观锁的时候,都会获取最新当前状态的一个 snapshot。
-
Write : 输出数据,然后更新产生一个新版本,里面记录本次变动的文件。
-
Validate and commit : 在提交之前,检测是不是有其他已经提交的Deltalog 文件,和本事务变动的文件有冲突,如果没有冲突,本次staged 的changes 就提交,产生一个新的数据集版本,如果有冲突,就会抛出一个并发修改异常,放弃修改。 OptimisticTransaction 这个类里面 commit过程都会经过prepareCommit -> doCommit -> postCommit 这三步,判断是否冲突的方式,就是写入DeltaFile的时候判断当前 version+1 的delta文件是不是已经写过了,如果写过了就会抛出 ConcurrentModificationException 异常,本次输出的文件也就不会产生任何效果,因为不体现在命名空间里面,当然在 spark structured streaming上层逻辑如果一个增量batch输出失败,就会重试,这样的话,就相当于进行下一轮的输出,所以在整个过程中,不会污染现有数据,冲突了就等待下一次重新输出成功,当然如果冲突很频繁,就会有性能问题,每次 postCommit 方法里面也会检查是不是符合做checkpoint的间隔了。
Delta 和 Spark 的计算层整合
Delta 使用 DeltaDataSource 和 Spark Sql 的 批流APIs 进行整合。
DeltaDataSource 实现了这些特质, RelationProvider 在批读取的时候起作用 ,CreatableRelationProvider 在批输出的时候起作用, StreamSourceProvider 在流读取的时候起作用, StreamSinkProvider 在流输出的时候起作用。
DeltaDataSource 作为 spark 数据源的一个插件,在 spark sql 引擎中会被回调,然后进行输入输出,下面简单的描述一下调用链,spark sql 内部调用关系太复杂,这里忽略。
-
RelationProvider -> 被 spark sql引擎回调 -> createRelation -> DeltaLog.createRelation -> HadoopFsRelation -> 被 spark sql 引擎回调使用
-
CreatableRelationProvider -> 被 spark sql引擎回调 -> createRelation -> 被 spark sql引擎回调 -> writeInfoDelta -> 被 spark sql 引擎回调使用
-
StreamSinkProvider -> 被 spark sql引擎回调 -> createSink -> 创建-> DeltaSink -> 被spark sql引擎回调 -> addBatch
-
StreamSourceProvider -> 被 spark sql引擎回调 -> createSource ->创建-> DeltaSource -> 被spark sql引擎回调 -> getBatch
在读取数据的时候,都会先获取当前最新状态的一个 snapshot, 来构建 dataframe 或者增量 dataframe, 所以取的是一个固化的数据集,不管读取过程中数据有没有改变,当前读取的数据都是不会变的。
在写出数据的时候,都会先申请一个乐观事务管理器, 然后进行乐观并发控制。
spark 技术分享是专注于大数据与机器学习领域的公众号,主要聚焦在 spark 生态系统。作者在 spark 技术圈当扫地僧多年,对 spark 内核架构有深入研究,以及丰富的实践经验。公众号在 spark、kafka、flink、hbase、机器学习等领域分享积累了海量的干货教程、面试宝典和学习资源。期待与你相遇,一块撸 spark 源码,一块玩 spark 最佳实践。
▲长按图片识别二维码关注
大家工作学习遇到HBase技术问题,把问题发布到HBase技术社区论坛http://hbase.group,欢迎大家论坛上面提问留言讨论。想了解更多HBase技术关注HBase技术社区公众号(微信号:hbasegroup),非常欢迎大家积极投稿。
技术社群
【HBase生态+Spark社区大群】
群福利:群内每周进行群直播技术分享及问答
加入方式1:https://dwz.cn/Fvqv066s?spm=a2c4e.11153940.blogcont688191.19.1fcd1351nOOPvI
加入方式2:钉钉扫码加入
免费试用
以上所述就是小编给大家介绍的《Delta剖析 | Delta源码解析与实践案例》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 【Java集合源码剖析】ArrayList源码剖析
- Java集合源码剖析:TreeMap源码剖析
- 我的源码阅读之路:redux源码剖析
- ThreadLocal源码深度剖析
- SharedPreferences源码剖析
- Volley源码剖析
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Wikis For Dummies
Dan Woods、Peter Thoeny / For Dummies / 2007-7-23 / USD 24.99
Corporations have finally realized the value of collaboration tools for knowledge sharing and Wiki is the open source technology for creating collaborative Web sites, as either a public site on the In......一起来看看 《Wikis For Dummies》 这本书的介绍吧!