拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

栏目: 后端 · 发布时间: 5年前

内容简介:每日早8点半,技术文章准时送上公众号后台回复“

点击上方 石杉的架构笔记 ,右上角选择“ 设为星标

每日早8点半,技术文章准时送上

公众号后台回复“ 学习 ”,获取作者独家秘制精品资料

往期文章

BAT 面试官是如何360°无死角考察候选人的(上篇)

每秒上万并发下的Spring Cloud参数优化实战

分布式事务如何保障实际生产中99.99%高可用

记一位朋友斩获 BAT 技术专家Offer的面试经历

亿级流量架构系列之如何支撑百亿级数据的存储与计算

目录:

1. 前情回顾

2. 基于消息中间件的队列消费模型

3. 基于消息中间件的“Pub/Sub”模型

4. RabbitMQ中的exchange到底是个什么东西?

5. 默认的exchange

6. 将消息投递到fanout exchange

7. 绑定自己的队列到exchange上

8. 整体架构图

1. 前情回顾

上一篇文章: 《如何不让两个攻城狮每天黏在一起?把他俩负责的系统解耦吧!》 我们 分析了如何利用消息中间件对两系统进行解耦处理。

同时,我们也提到了,使用消息中间件还有利于一份数据被多个系统同时订阅,供多个系统用于不同目的。

目前的一个架构如下图所示。

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

在这个图里,我们可以清晰的看到,实时计算平台发布的一份数据到消息中间件里,然后接下来:

  1. 数据查询平台 会订阅这份数据,并落入自己本地的数据库集群和缓存集群里,接着对外提供数据查询的服务

  2. 数据质量监控系统 会对计算结果按照一定的业务规则进行监控,如果发现有数据计算错误,则会立马进行报警

  3. 数据链路追踪系统 会采集计算结果作为一个链路节点,同时对一条数据的整个计算链路都进行采集并组装出来一系列的数据计算链路落地存储,最后如果某个数据计算错误了,就可以立马通过计算链路进行回溯排查问题

通过以上回顾,我们已经清楚,在上述场景中,使用消息中间件一来可以解耦,二来可以实现消息“ Pub/Sub ”模型,实现消息的发布与订阅。

这篇文章,咱们就来落地实践一把,基于RabbitMQ消息中间件,如何实现一份数据被多个系统同时订阅的“Pub/Sub”模型?

2. 基于消息中间件的队列消费模型

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

上图其实就是采用的RabbitMQ最基本的队列消费模型的支持,你可以理解为RabbitMQ内部有一个队列,生产者不断的发送数据到队列里,消息按照先后顺序进入队列中排队。

现在假设队列里有4条数据,我们有2个消费者一起消费这个队列的数据。

此时每个消费会均匀的分配到2条数据,也就是说4条数据会均匀的分配给各个消费者,每个消费者只不过是处理一部分数据罢了,这个就是典型的队列消费模型。

ps :如果有同学对基于RabbitMQ如何实现还不太清楚,可以参考之前的一些文章:

  1. 《哥们,消息中间件在你们项目里是如何落地的?》

  2. 《线上服务宕机时,如何保证数据100%不丢失?》

  3. 《消息中间件集群崩溃,如何保护百万生产数据不丢失?》

这几篇文章给出了上述那个最基本的队列消费模型的RabbitMQ代码实现,以及如何保证消费者宕机时数据不丢失,如何让RabbitMQ集群对queue和message都进行持久化,整体代码实现比较完整,可以参考一下。

3. 基于消息中间件的“ Pub/Sub”模型

除了上述的基本模型外,消息中间件还可以实现一种“Pub/Sub”模型,也就是“发布/订阅”模型,Pub就是Publish,Sub就是Subscribe。

这种模型可以支持多个系统同时消费一份数据,也就是说你发布出去的每条数据,都会广播给每个系统,看下图:

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

也就是说,我们想要实现的上图的效果:实时计算平台发布一系列的数据到消息中间件里,然后数据查询平台、数据质量监控系统、数据链路追踪系统,都会订阅数据,都会消费到同一份完整的数据,每个系统都可以根据自己的需要使用数据。

那么这个所谓的“Pub/Sub”模型,基于RabbitMQ应该怎么来处理呢?

4. RabbitMQ中的exchange到底是个什么东西?

实际上,在RabbitMQ里面是不允许生产者直接投递消息到某个queue(队列)里的,而是只能让生产者投递消息给RabbitMQ内部的一个特殊组件,叫做“ exchange ”,你大概可以理解为一种消息路由组件。

也就是说,实时计算平台发送出去的message到RabbitMQ中都是由一个exchange来接收的。

然后这个exchange会根据一定的规则决定要将这个message路由转发到哪个queue里去,这实际上就是RabbitMQ中的一个核心的消息模型。

大家看下面的图来理解一下。

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

5. 默认的exchange

你也许会说,我投递消息到RabbitMQ的时候,也没有用什么exchange,但是为什么还是把消息投递到了queue里去呢?

那是因为你使用了默认的exchange,他会直接把消息路由到你指定的那个queue里去,所以如果简单用队列消费模型,就省去了exchange的概念。

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

上面这段就是之前给大家展示的,让消息持久化的一种投递消息的方式。

大家注意里面的第一个参数,是 一个空的字符串,这个空字符串的意思,就是说投递消息到默认的exchange里去,然后他就会路由消息到我们指定的queue里去。

6. 将消息投递到fanout exchange

在RabbitMQ里,exchange这种组件有很多种类型,比如说:direct、topic、headers以及fanout,本文我们来看最后一种fanout。

这种exchange组件其实非常的简单,你可以创建一个fanout类型的exchange,然后给这个exchange绑定多个queue,接着只要你投递一条消息到这个exchange,他就会把消息路由给他绑定的所有queue。

使用下面的代码就可以创建一个exchange,比如说在实时计算平台(生产者)的代码里,可以加入下面的一段,创建一个fanout类型的exchange。

第一个参数 我们叫做“rt_compute_data”,这个就是exchange的名字,rt就是“RealTime”的缩写,意思就是实时计算系统的计算结果数据。

第二个参数 就是定义了这个exchange的类型是“fanout”。

channel.exchangeDeclare("rt_compute_data", "fanout");

接着我们就采用下面的代码来投递消息到我们创建好的exchange组件里去:

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

大家会注意到,此时消息就是投递到指定的exchange里去了,但是路由到哪个queue里去呢?此时我们暂时还没确定,要让消费者自己把自己的queue绑定到这个exchange上去才可以。

7. 绑定自己的队列到exchange上

对消费者的代码也进行修改,之前我们在这里关闭了autoAck机制,然后每次都是自己手动ack。

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

上面的代码里,每个消费者系统,都会有一些不一样,就是每个消费者都需要定义自己的队列,然后绑定到exchange上去。

比如说数据查询平台的队列是“ rt_compute_data_query ”,数据质量监控平台的队列是“ rt_compute_data_monitor ”,数据链路追踪系统的队列是“rt_compute_data_link”。

这样每个订阅这份数据的系统其实都有一个属于自己的队列,然后队列里被会被exchange路由进去实时计算平台生产的所有数据。

而且因为是多个队列的模式,每个系统都可以部署消费者集群来进行数据的消费和处理,非常的方便。

8. 整体架构图

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

如上图所示,实时计算平台会投递消息到“rt_compute_data”这个“exchange”里去,但是他没指定这个exchange要路由消息到哪个队列,因为这个他本身是不知道的。

接着数据查询平台、数据质量监控系统、数据链路追踪系统,就可以声明自己的队列,都绑定到exchange上去。

因为queue和exchange的绑定,在这里是由要订阅数据的平台自己指定的。而且因为这个exchange是fanout类型的,他只要接收到了数据,就会路由数据到所有绑定到他的队列里去,这样每个队列里都有同样的一份数据,供对应的平台来消费。

而且针对每个平台自己的队列,自己还可以部署消费服务集群来消费自己的一个队列,自己的队列里的数据还是会均匀分发给各个消费服务实例来处理,每个消费服务实例会获取到一部分的数据。

这样是不是就实现了不同的系统订阅一份数据的“Pub/Sub”的模型?

当然,RabbitMQ还支持各种不同类型的exchange,可以实现各种复杂的功能,后续我们再来给大家通过实际的线上系统架构案例,来阐述消息中间件技术的用法。

END

划至底部,点击“ 在看 ”,是你来过的仪式感!

推荐阅读:

更多文章:

欢迎长按下图关注公众号 石杉的架构笔记 ,后台回复“ 学习 ”,获取作者独家秘制精品资料

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!

BAT架构经验倾囊相授

拿走不谢:一份历经线上考验的大规模系统的消息队列技术方案!


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

刷屏

刷屏

[美] 凯文•阿洛卡 / 侯奕茜、何语涵 / 中信出版社 / 2018-10-1 / 68.00

1. YouTube流行趋势经理,解密如何打造爆款视频 在视频时代,制造互动,才能创造潮流 用户不再是被动的观众,而是主动的传播者 2. 《刷屏》以行内人视角解读: 病毒视频 粉丝经济 网红产业 平台如何为内容创作者赋能 3. 你是否常常被病毒视频刷屏?你是否觉得很多网红火爆到“无法用常理解释”? 视频时代已经到来,我们每天观看网络......一起来看看 《刷屏》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具