spark kafka consumer 消费数据的二种方式

栏目: 编程工具 · 发布时间: 6年前

内容简介:如果实时的从kafka取数据,通过spark入hdfs,会产生很多的task,在hdfs上会产生非常多的小文件。浪费硬盘空间不说,在用spark进行数据分析的时间,非常耗spark节点的内存。最好不要实时的入库,间断去运行。这样会尽量减少小文件的产生。但是不能根本上解决小问题,最终还是通过CombineFileInputFormat来解决,这个后面的文章,会单独说。这种方式也是最容易想到的一种方式,spark-submit提交后,启动sparksession,启动kafka consumer,消费数据。这儿

如果实时的从kafka取数据,通过spark入hdfs,会产生很多的task,在hdfs上会产生非常多的小文件。浪费硬盘空间不说,在用spark进行数据分析的时间,非常耗spark节点的内存。

最好不要实时的入库,间断去运行。这样会尽量减少小文件的产生。但是不能根本上解决小问题,最终还是通过CombineFileInputFormat来解决,这个后面的文章,会单独说。

1,采crontab的方式

这种方式也是最容易想到的一种方式,spark-submit提交后,启动sparksession,启动kafka consumer,消费数据。这儿有一点要注意,数据入hdfs后,关闭sparksession,kafka consumer,这样可以节约系统资源。

2,采用akka包,处理方式,根crontab差不多(推荐)

pom.xml加载包,注意和当前scala版本要对的上,不然打包时会报错

<dependency>
 <groupId>com.typesafe.akka</groupId>
 <artifactId>akka-actor_2.11</artifactId>
 <version>2.5.9</version>
</dependency>

例子:

object test {
    def main(args: Array[String]): Unit = {
        。。。。。。。。。。。。。。。。省略。。。。。。。。。。。。。。。
        val consumer: KafkaConsumer[String, String] = new KafkaConsumer[String, String](pros)
        /*这里填写主题名称*/
        consumer.subscribe(util.Arrays.asList(table))
        val system = akka.actor.ActorSystem("system")
        system.scheduler.schedule(0 seconds, 180 seconds)(taskerPc.saveData(args,consumer))
    }

    object taskerPc {
        def saveData(args: Array[String],consumer: KafkaConsumer[String,String]): Unit = {
            。。。。。。。。。。。。。。。。省略。。。。。。。。。。。。。。。
            /*
            *
            * spark.sql.warehouse.dir hdfs://主数据节点别名或者ip:post指定单个主机/
            * */
            val spark = new sql.SparkSession.Builder()
                    .config("spark.sql.warehouse.dir", func.cnf("spark.sql.warehouse.dir"))
                    .enableHiveSupport()
                    .appName(table)
                    .getOrCreate()

            val records: ConsumerRecords[String, String] = consumer.poll(Duration.ofSeconds(3))
            。。。。。。。。。。。。。。。。省略。。。。。。。。。。。。。。。
        }
    }
}

scala main函数中,开起了一个kafka consumer,会每隔180秒,去调用函数saveData,这种方式,consumer是不能关闭的,一关闭就无法消费topic里面的数据了。如果把val consumer: KafkaConsumer[String, String] = new KafkaConsumer[String, String](pros),放到了saveData中,就要关闭consumer,不然就会出现Attempt to heartbeat failed since group is rebalancing问题。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Perl语言编程

Perl语言编程

克里斯蒂安森 (Tom Christiansen) (作者)、Brian D Foy (作者)、Larry Wall (作者)、Jon Orwant (作者) / 苏金国 (译者)、吴爽 (译者) / 中国电力出版社 / 2014-9-1 / 148

从1991年第一版问世以来,《Perl语言编程》很快成为无可争议的Perl宝典,如今仍是这种高实用性语言的权威指南。Perl最初只是作为一个功能强大的文本处理工具,不过很快发展成为一种通用的编程语言,可以帮助成千上万的程序员、系统管理员,以及像你一样的技术爱好者轻松完成工作。 人们早已经翘首以待这本“大骆驼书”的更新,如今终于得偿所愿。在这一版中,三位颇有声望的Perl作者讲述了这种语言当前......一起来看看 《Perl语言编程》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码