内容简介:Redis 在 3.0 前一般有两种集群方案,一是 proxy(Twemproxy、Codis),二是使用 Sentinel(哨兵)。 通过 Sentinel 是一种使用哨兵来达到高可用的方案,而 proxy 是用于在前置上进行 sharding 用代理给后端的 redis 集群的方案,达到负载均衡的方案,在单个分片的 redis 中作主从。 因为本文要重点讲解的不是 3.0 前的方案,因此说的比较粗略。Redis3.0 提供了官方的 Redis cluster 机制支持。主要通过内部无中心的多个节点来达
Redis 集群的历史
Redis 在 3.0 前一般有两种集群方案,一是 proxy(Twemproxy、Codis),二是使用 Sentinel(哨兵)。 通过 Sentinel 是一种使用哨兵来达到高可用的方案,而 proxy 是用于在前置上进行 sharding 用代理给后端的 redis 集群的方案,达到负载均衡的方案,在单个分片的 redis 中作主从。 因为本文要重点讲解的不是 3.0 前的方案,因此说的比较粗略。
Redis3.0 提供了官方的 Redis cluster 机制支持。主要通过内部无中心的多个节点来达到集群、高可用的作用。下面是 Redis Cluster 的架构图:
Redis Cluster 的重要机制
-
sharding 由 Redis cluster 根据 client 调用 redis 的 key 进行 hash 取模得到一个 code,根据这个 code 放到 16384 个 slot 中。在以上的架构图中 slot1 组、slot2 组、slot3 组服务器中分别是对应的差不多 1/3 的 slot。这样就得到了根据 key 的 shading。
-
说到 sharding 就会说到怎么进行扩容和缩容,redis cluster 也提供了 工具 进行迁移。 不过由于不是一致性 hash,所以涉及到迁移数据的节点数会多于一致性 hash,但是迁移的量还是可控的,只会迁移部分以达到平均的效果。 (redis cluster 迁移详细机制需要另外详细研究)
-
在 redis cluster 的一个 slot 组中,采用的是主备的高可用模式,只有 master 对外提供服务,如果 master 挂掉,则 slave 会成为新的 master,由新的 master 提供服务,在切换的过程中会在短时间的 redis 服务不可用。
-
redis cluster 进入 fail 状态的条件:
- 如果同时有大于 N(N 为总 slot 组数)*1/2 的 master 节点数同时挂掉,则 cluster 进入 fail 状态,因为剩下的 master 已经无法选出新的 master 节点了。 分布式系统中必须要有大于 N(N 为总 slot 组数)*1/2 的节点存在才能判断有效。 节如果有是 3 主 3 备的集群,如果同时有 2 个 master 节点挂掉了,那么集群就挂掉了。
- 如果一个 slot 组中的服务器已经没有备用服务器了,这时 master 挂掉后,redis cluster 也会进入 fail 状态。 因为部分 slot 的数据已经查询不到了。
-
redis cluster 具备高可用、sharding、负载均衡的功能。
-
如果多个 key 想要人为控制落到一个 slot 组上,可以通过对 key 进行改造实施。即如果 key 都以{key_pre}idxxxx 这样,那么所有的 key 将是以 key_pre 去确定 slot 组,这样就达到了以{key_pre}开头的 key 都会是在一个 slot 组。
-
当向一个 master 中写入数据时,数据是进行迅速返回的,返回后再进行主从同步的方式向 slave 进行同步,因此这里是损失了 CAP 中的一致性的。 在将来的 redis 版本中可能会开放同步写的方式写入 slave,以维护一致性,当然这样会损失一定的写入速度。
-
在上文中提到的在做主从切换的时候,会有短时的不可用状态,因此会操作分布式理论 CAP 中可用性。
-
单个 redis 服务器上的请求是顺序执行的,因为 redis 服务器是单进程、单线程的。
分布式锁
分布式锁有很多的实现方案,通常有数据库、文件系统、zookeeper、redis。下面讲述基于 redis cluster 的分布式锁方案。
基于 redis 事务实现
严格来说这并不是分布式锁,只是通过改造可以实现锁的效果。这里并不是实现锁定其他的线程被阻塞的效果,而是如果数据被其他客户端修改了就返回失败。原理是基于 reids 的 multi 和 watch 命令。 在事务开始前对要锁到的数据进行 watch,进行业务操作后,如果发现锁定的数据已经变了,就提交失败,重新进行业务操作。 在这个方案中如果执行失败就一直反复执行直到成功,也是实现了多个 redis 客户同时修改一个数据时的协调的锁的功能。
伪代码如下:
复制代码
jedis.set("balance",String.valueOf(balance)); jedis.watch("balance"); Transaction transaction = jedis.multi(); transaction.decrBy("balance",amtToSubtract);/ transaction.incrBy("debt",amtToSubtract); List result = transaction.exec();// 执行事务 if(result==null){ // 重新执行事务或者其他。 }else{ // 事务执行成功。 }
基于 setNX EX 实现
Redis set key 时的一个 NX 参数可以保证在这个 key 不存在的情况下写入成功。并且再加上 EX 参数可以让该 key 在超时之后自动删除。
jedis 伪代码:
复制代码
Stringset(Stringkey,Stringvalue,Stringnxxx,Stringexpx,longtime);
为什么要以一代代码一个命令去实现呢,是因为要防止 NX 后突然就宕机了会产生死锁。
过期的时间的设置上要考虑几个问题:
-
如果时间设置比较长,如果锁定发起 server 发生宕机,那么很久都解锁不了。
-
如果时间设置比较短,可能会发生业务还没有做完,发生了解锁,没有起到锁定的作用。
关于解锁:在解锁时需要判断当前的锁是不是自己所锁定的,因此需要在加锁时将 key 的 value 设置为一个随机数,在解锁时进行判断。 因为在解锁时有 get 数据再判断的多个操作,因此这里也需要防止并发问题,因此使用 lua 脚本写这个操作。如以下伪代码:
复制代码
$script ="if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end"; $result =$this->redis->eval(script,array($key,$val),1);
注意一个可能发生的问题:
redis 的主从异步复制机制可能丢失数据,会出现如下场景:A 线程获得了锁,但锁数据还未同步到 slave 上,master 挂了,slave 顶成主,线程 B 尝试加锁,仍然能够成功,造成 A、B 两个线程并发访问同一个资源。
基于 lua 脚本实现
由于 redis 服务器的单进程单线程模型,因此产生这种被大量使用的分布式锁的方案。
lua 脚本通过 eval 或者 evalsha 方法进行执行,同时将脚本涉及到的 key 和参数传递给 redis 服务器执行。客户端可以通过 jedis 进行调用。 evalsha 是对脚本在 redis 服务器进行预编译,这样可以减少网络交互量,加速执行时的速度。
注意以下:
-
由于是分布式集群环境,如果传递了多个 key,而 key 处于不同的 slot 组服务器,那么执行将会报错。
-
lua 脚本中由于是单进程单线程执行,因此不要做消耗时间的操作。 在简单操作的情况下,在 CPU 6 核 Intel® Core™ i7-2720QM CPU @ 2.20GHz 内存 16GB 的情况下能跑出 5 万 TPS。
-
如果要进行 TPS 扩容,则需要通过 key 对应的 slot 组不同,将 lua 分发到不同的 slot 组中的 redis master 服务器去执行。
-
程序都建议使用 evalsha 的方法去执行,这样可以提高 TPS。
API 网关分布式限流
API 网关中针对一个 API、API 分组、接入应用 APP ID,IP 等进行限流。这些限流条件都将会产生一个限流使用的 key,在后续的限流中都是对这个 key 进行限流。
限流算法通常在 API 网关中可以采用令牌桶算法实现。
必须说明一点的是分布式限流由于有网络的开销,TPS 的支持隔本地限流是有差距的,因此在对于 TPS 要求很高的场景,建议采用本地限流进行处理。
下面讨论我们应该采用 redis 的哪一种分布式锁的方案:
由于 redis 事务要得到锁的效果需要在高 TPS 时会产生大量的无效的访问请求,所以不建议在这种场景下使用。
SET NX/EX 的锁方案会产生在过期时间的问题,同时也有异步复制 master 数据到 slave 的问题。相比 lua 方案会产生更多的不稳定性。
我建议采用 lua 的方案来实施分布式锁,因为都是单进程单线程的执行,因此在 TPS 上和第二种方案没有大的区别,而且由于只是一个 lua 脚本在执行,甚至是可能纯 lua 执行可能会有更高的 TPS。 当然是 lua 脚本中可能还是会去设置过期时间,但是应用 server 宕机并不会影响到 redis 中的锁。 当然 master 异步复制的问题还是有, 但是并不会造成问题,因为数据只会有 1 个 lua 脚本执行问题,下一个执行就正常了。
在实现方案的时候使用了 Jedis 库,有一些问题在方案的实现层面我已经去做过验证了,可能也会是读者的疑问。
- 理论上 jedis 都应该是连接 redis 集群中的 master 节点,因为 redis 主备是采用的主备(Active-Standby 方式)的方式。 需要确定在这种情况下应该是配置所有的 redis 节点还是只配置 master。 理论上是需要配置所有的节点。
答:配置所有节点,做自动转发。
- 需要测试在其中一个 slot 组的 master 挂掉后,slave 成为 master 后,jedis cluster 的方式还能正常的访问对应的 key。从资料上来看是能自动处理的。
答:能自动处理。
- 因为是采用 redis cluster,所以需要测试 key 存储在 slot 1 组上时,jedis cluster 连接的是 slot 2 组上的 redis 服务器,在这种情况下要能正常的调用 lua。 如果不能要看怎么样调用,因为 redis 可能会返回 "MOVED" 指令,这个要看 jedis 组件有没有实现自动的迁移。
答:能自动处理。
- 需要测试连接的是 salve 节点,但是读请求是转给了 master 节点,salve 节点不处理请求。因为是主备(Active-Standby 方式)状态。
答:能自动处理,由 Jedis jar 进行维护节点的状态,查询最新的 master 节点的信息。
有兴趣的朋友可以加入 QQ 交流群:244054462,备注:API 网关架构设计交流。
作者简介
颜诗超,成都小豹科技的“小豹 API 网关”产品负责人。
以上所述就是小编给大家介绍的《Redis 集群分布式锁与 API 网关分布式限流》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- Go语言实现FastDFS分布式存储系统WebAPI网关
- 开源 | GateKeeper:滴滴开源的使用 Go 编写的不依赖分布式数据库的 API 网关
- Soul 网关发布 2.2.0,让高性能网关变得如此简单!
- 远行API网关(200428)
- zuul网关实现解析
- 设计一个HTTP网关
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Algorithms Unlocked
Thomas H. Cormen / The MIT Press / 2013-3-1 / USD 25.00
Have you ever wondered how your GPS can find the fastest way to your destination, selecting one route from seemingly countless possibilities in mere seconds? How your credit card account number is pro......一起来看看 《Algorithms Unlocked》 这本书的介绍吧!