学习 Flink(十六):Streaming Parquet File

栏目: 数据库 · 发布时间: 6年前

内容简介:Flink 支持将流数据以文件的形式写入文件系统(HDFS、本地文件系统),支持 CSV、JSON 面向行的存储格式和 Parquet 面向列的存储格式。应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果以 Avro / Parquet 格式写入 HDFS。之后,遍可以使用 Spark 或 MPP 进行进一步分析。

更新至 Flink 1.8 版本

Flink 支持将流数据以文件的形式写入文件系统(HDFS、本地文件系统),支持 CSV、JSON 面向行的存储格式和 Parquet 面向列的存储格式。

应用场景:Flink 消费 Kafka 数据进行实时处理,并将结果以 Avro / Parquet 格式写入 HDFS。之后,遍可以使用 Spark 或 MPP 进行进一步分析。

学习 Flink(十六):Streaming Parquet File

由于流数据本身是无界的,所以,流数据将数据写入到分桶(bucket)中。默认使用基于时间的分桶策略。在分桶中,又根据滚动策略,将输出拆分为 part 文件。

Flink 提供了两个分桶策略,分桶策略实现了 org.apache.flink.streaming.api.functions.sink.filesystem.BucketAssigner 接口:

  • BasePathBucketAssigner ,不分桶,所有文件写到根目录;

  • DateTimeBucketAssigner ,基于系统时间分桶。

Flink 提供了两个滚动策略,滚动策略实现了 org.apache.flink.streaming.api.functions.sink.filesystem.RollingPolicy 接口:

  • DefaultRollingPolicy 当超过最大桶大小(默认为 128 MB),或超过了滚动周期(默认为 60 秒),或未写入数据处于不活跃状态超时(默认为 60 秒)的时候,滚动文件;

  • OnCheckpointRollingPolicy 当 checkpoint 的时候,滚动文件。

依赖

编辑 pom.xml 文件,添加依赖:

<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-parquet</artifactId>
    <version>1.8.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.parquet</groupId>
    <artifactId>parquet-avro</artifactId>
    <version>1.10.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-filesystem_2.11</artifactId>
    <version>1.8.0</version>
</dependency>  
<dependency>  
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-shaded-hadoop2</artifactId>
    <version>1.8.0</version>
</dependency>

Sink

StreamingFileSink<Event> parquetFileSink = StreamingFileSink  
        .forBulkFormat(new Path("hdfs://RESOURCE_MANAGER/data/event"), ParquetAvroWriters.forReflectRecord(Event.class))
        .withBucketAssigner(new DateTimeBucketAssigner<>("'date='yyyy-MM-dd'/hour='HH"))
        .build();

eventStream.addSink(parquetFileSink);

注意:Bulk-encoding 格式仅支持 OnCheckpointRollingPolicy ,即在每次 checkpoint 时滚动 part 文件。

总结

截止目前,Flink 的 Streaming File Sink 仍存在不少问题,如:

  • 不支持写入到 Hive

  • 写入 HDFS 产生大量小文件

参考


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

网络多人游戏架构与编程

网络多人游戏架构与编程

格雷泽 (Joshua Glazer)、马达夫 (Sanjay Madhav) / 王晓慧、张国鑫 / 人民邮电出版社 / 2017-10-1 / CNY 109.00

本书是一本深入探讨关于网络多人游戏编程的图书。 全书分为13章,从网络游戏的基本概念、互联网、伯克利套接字、对象序列化、对象复制、网络拓扑和游戏案例、延迟、抖动和可靠性、改进的延迟处理、可扩展性、安全性、真实世界的引擎、玩家服务、云托管专用服务器等方面深入介绍了网络多人游戏开发的知识,既全面又详尽地剖析了众多核心概念。 本书的多数示例基于C++编写,适合对C++有一定了解的读者阅读。本......一起来看看 《网络多人游戏架构与编程》 这本书的介绍吧!

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具