内容简介:我们都知道,在spark2.4 之前,处理复杂数据类型是一件比较痛苦的事情,有两种比较恶心的处理方式在 spark2.4 之后,你就轻松了,可以使用多种内嵌函数处理复杂类型,对 array 或者 map类型的列处理起来很easy, 如果满足不了你的需求,你可以直接在sql中写lambda 表达式,怎么用,怎么爽。
spark 2.4 对复杂数据处理类型引入了 29 个内嵌函数,文档参考 https://docs.databricks.com/_static/notebooks/apache-spark-2.4-functions.html,里面包含一些 higher-order 函数,就跟scala 里面的 map filter reduce 一样,让你在 sql 中也可以享受函数式编程的快感。
我们都知道,在spark2.4 之前,处理复杂数据类型是一件比较痛苦的事情,有两种比较恶心的处理方式
-
使用 explod 表达式把嵌套数据类型平展开,应用你自己的处理逻辑,再用 collect_list 表达式在拼凑起来,
-
自定义一个 udf 函数处理多层嵌套的数据类型
在 spark2.4 之后,你就轻松了,可以使用多种内嵌函数处理复杂类型,对 array 或者 map类型的列处理起来很easy, 如果满足不了你的需求,你可以直接在sql中写lambda 表达式,怎么用,怎么爽。
1 匿名lambda函数使用姿势
下面举个例子说明下:
假如我们有这样一个 dataframe, 有两列,vals 列是个数组,我们的需求是对数组中的多个元素都 +1
spark 2.4 之前的写法是:
这样会有几个问题, 如果有两个 id 为1的行,平展开在组合后的结果就只有一行了,这就错了,而且带着 group by 肯定就涉及到 shuffle 操作了,性能会下降,而且shuffle 操作不保证数据元素的顺序,有可能数组元素顺序就变了。
另外一种写法是自定义一个UDF:
这种用法正确性倒是没有问题, 但是会损失性能,下文中会进行详细分析。
如果我们使用 spark2.4 提供的 higher-order 函数, 里面定义一个匿名lambda函数,就轻松了:
这个 transform 函数会遍历数组,然后应用你定义的匿名lambda函数,是不是很简单。
下面我举个复杂一些的例子:
key | values | nested_values |
1 | [1, 2, 3] | [[1, 2, 3], [], [4, 5]] |
如果我们想对数组中的每个元素都加上同一行的key,sql可以写成这样:
如果你需要处理多层嵌套的数据类型,比如我们例子中的nested_values,没关系,你直接写一个两层的匿名lambda函数 就可以了:
2 性能好在哪里
有人就问了,这种在 sql 中写 匿名lambda函数 就是轻便了一些,和 自定义一个 udf 到底有什么差距,其实我今天就是想重点探讨一下这个问题
其实两者的差距就在于直接写lambda函数不需要序列化和反序列化, udf 需要,你想呀,如果对每条数据都要进行序列化和反序列化, 对于海量数据,性能必定有很大的损失。
对于 tansform 处理一个数组,spark2.4 内部会创建一个 tansform 类型的表达式节点
这个节点对数组的处理流程如下,需要注意的是,spark 会使用 encoder 把加载的数据,或者jvm对象转换为一种内部的数组字节格式 InternalRow,这种不同于 java 序列化,虽然都是把对象转换为字节数组,但是表达式生成的代码可以直接操作字节数组,而不需要反序列化,这种字节数组格式大大提高了处理时间效率和空间效率。
arrayTransform 表达式会遍历数组,然后应用你定义的匿名lamdba 函数,最后更新相应的元素。
下面我们来看下 udf 方式的处理方式:
看到没有,中间处理过程中,需要先把catalyst类型(也就是 InternalRow 格式) 格式转换为 scala 类型, 然后应用自定义函数,然后再转回去,多了一次序列化和反序列化的性能损耗,所以如果在海量数据下,这种性能损失还是很大的。
大家都在看
▼
关注 【spark技术分享】
一起撸spark源码,一起玩spark最佳实践
听说新版微信这有个好看
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 如何使用策略模式处理多种类型请求
- Dubbo主要的异常类型及处理
- WebApplicationContext 中特殊的 bean 类型(一)--- 请求/异常处理
- 默认值+TS类型约束提高数据处理成功率
- 必须会的SQL语句(五) NULL数据处理和类型转换
- vue开发黑科技--利用引用类型的值处理复杂数据的编辑
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。