使用ApacheFlink和Kafka进行大数据流处理

栏目: 后端 · 发布时间: 6年前

内容简介:Flink是一个开源流处理框架,注意它是一个处理计算框架,类似Spark框架,Flink在数据摄取方面非常准确,在保持状态的同时能轻松地从故障中恢复。Flink内置引擎是一个分布式流数据流引擎,支持它支持所有下面

Flink是一个开源流处理框架,注意它是一个处理计算框架,类似Spark框架,Flink在数据摄取方面非常准确,在保持状态的同时能轻松地从故障中恢复。

Flink内置引擎是一个分布式流数据流引擎,支持 流处理和批处理 ,支持和使用现有存储和部署基础架构的能力,它支持多个特定于域的库,如用于机器学习的FLinkML、用于图形分析的Gelly、用于复杂事件处理的 SQL 和FlinkCEP。Flink的另一个有趣的方面是现有的大数据作业(Hadoop M / R,Cascading,Storm)可以 通过适配器在Flink的引擎上执行, 因此这种灵活性使Flink成为Streaming基础设施处理的中心。

它支持所有下面 关键功能:

  • 处理引擎,支持实时Streaming和批处理Batch
  • 支持各种窗口范例
  • 支持有状态流
  • Faul Tolerant和高吞吐量
  • 复杂事件处理(CEP)
  • 背压处理
  • 与现有Hadoop堆栈轻松集成
  • 用于进行机器学习和图形处理的库。

核心API功能:

  • 每个Flink程序都对分布式数据集合执行转换。 提供了用于转换数据的各种功能,包括过滤,映射,加入,分组和聚合。
  • Flink中的接收 操作用于接受触发流的执行以产生所需的程序结果 ,例如将结果保存到文件系统或将其打印到标准输出
  • Flink转换是惰性的,这意味着它们在调用接收 操作之前不会执行
  • Apache Flink API支持两种操作模式 - 批量操作和实时操作。 如果正在处理可以批处理模式处理的有限数据源,则将使用 DataSet  API。如果您想要实时处理无限数据流,您需要使用 DataStream  API

擅长批处理的现有Hadoop堆栈已经有 很多组件 ,但是试图将其配置为流处理是一项艰巨的任务,因为各种组件如Oozi(作业调度程序),HDFS(和用于数据加载的存储),ML和图形库和批处理工作都必须完美协调。最重要的是,Hadoop具有较差的Stream支持,并且没有简单的方法来处理背压峰值。这使得流数据处理中的Hadoop堆栈更难以使用。让我们来看看Flink架构的高级视图:

使用ApacheFlink和Kafka进行大数据流处理

对于每个提交的程序,创建一个客户端,该客户端执行所需的预处理并将程序转换为并行数据流形式,然后由 TaskManagers和JobManager执行 。JobManager是整个执行周期的主要协调者,负责将任务分配给TaskManager以及资源管理。

它的组件图如下:

使用ApacheFlink和Kafka进行大数据流处理

Flink支持的流的两个重要方面是窗口化和有状态流。窗口化基本上是在流上执行聚合的技术。窗口可以大致分为

  • 翻滚的窗户(没有重叠)
  • 滑动窗(带重叠)

支持基本过滤或简单转换的流处理不需要状态流,但是当涉及到诸如流上的聚合(窗口化)、复杂转换、复杂事件处理等更高级的概念时,则必须支持 有状态流。

使用Kafka和Flink的Streaming架构如下

使用ApacheFlink和Kafka进行大数据流处理

图10 -  来自Stephan Ewen的演讲“Apache Flink和Apache Kafka的高级流分析”

以下是各个流处理框架和Kafka结合的基准测试,来自Yahoo:

使用ApacheFlink和Kafka进行大数据流处理

图11 -  来自Ufuk Celebi的谈话“使用Apache Flink的统一流和批处理”[7]

该架构由中Kafka集群是为流处理器提供数据,流变换后的结果在 Redis 中发布,可用于架构之外的应用程序。正如你所看到的,即使在高吞吐量的情况下,Storm和Flink还能保持低延迟,而Spark要差多了。继续增加数据量Flink不仅跑赢了Storm,而且还以大约300万次/秒的速度使Kafka链接饱和。

案例源码

Flink程序的入口点是 ExecutionEnvironment 类的实例- 它定义了执行程序的上下文。

让我们创建一个 ExecutionEnvironment 来开始我们的处理:

ExecutionEnvironment env
      = ExecutionEnvironment.getExecutionEnvironment();

请注意,在本地计算机上启动应用程序时,它将在本地JVM上执行处理。如果要在一组计算机上开始处理,则需要在这些计算机上安装 Apache Flink 并相应地配置 ExecutionEnvironment

我们将创建两个作业:

  • 生产者WriteToKafka :生成随机字符串并使用Kafka Flink Connector及其Producer API将它们发布到MapR Streams主题。
  • 消费者ReadFromKafka:读取相同主题并使用Kafka Flink Connector及其Consumer消息在标准输出中打印消息。

下面是Kafka的生产者代码,使用SimpleStringGenerator()类生成消息并将字符串发送到kafka的flink-demo主题。

public static void main(String[] args) throws Exception {
   StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

   Properties properties = new Properties();
   properties.setProperty("bootstrap.servers", “localhost:9092"); 

   DataStream<String> stream = env.addSource(new SimpleStringGenerator());
   stream.addSink(new FlinkKafkaProducer09<>("flink-demo", new SimpleStringSchema(), properties));

   env.execute();
}
  • 创建一个新StreamExecutionEnvironment对象,这是使用Flink应用程序的起点
  • DataStream在应用程序环境中创建一个新的SimpleStringGenerator,该类实现 SourceFunction  Flink中所有流数据源的基本接口。
  • 将FlinkKafkaProducer09添加到主题中。

消费者只需从flink-demo主题中读取消息,然后将其打印到控制台中。

public static void main(String[] args) throws Exception {
   // create execution environment
   StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

   Properties properties = new Properties();
   properties.setProperty("bootstrap.servers", “localhost:9092");
   properties.setProperty("group.id", "flink_consumer");

   DataStream<String> stream = env.addSource(new FlinkKafkaConsumer09<>(
         "flink-demo", new SimpleStringSchema(), properties) );

   stream.map(new MapFunction<String, String>() {
      private static final long serialVersionUID = -6867736771747690202L;

      @Override
      public String map(String value) throws Exception {
         return "Stream Value: " + value;
      }
   }).print();

   env.execute();
}
  • 用消费者信息创建一组属性,在这个应用程序中我们只能设置消费者group.id。
  • 使用FlinkKafkaConsumer09来获取主题中的消息flink-demo

本文源码 Github

开源项目 Nussknacker 让你通过GUI设计流处理流程,类似工作流那种方式,实现流处理的设计、部署和监控。

大数据专题

Stream流处理专题

Apache Kafka专题


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Web信息架构(第3版)

Web信息架构(第3版)

[美] Peter Morville、Louis Rosenfeld / 陈建勋 / 电子工业出版社 / 2013-10 / 99.00元

本书内容涵盖了信息架构基本原理和实践应用的方方面面。全书共7个部分,包括信息架构概述、信息架构的基本原理、信息架构的开发流程和方法论、信息架构实践、信息架构与组织、两个案例研究,以及参考资料清单。 本书兼具较高的理论价值和实用价值,曾被Web设计领域多本书籍重点推荐,是信息架构领域公认的经典书籍,不论新手还是专家都能各取所需。本书可供Web设计与开发者、Web架构师、网站管理者及信息管理相关......一起来看看 《Web信息架构(第3版)》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

RGB转16进制工具
RGB转16进制工具

RGB HEX 互转工具

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码