Algorithm Tips: 一致性哈希算法 CARP 原理解析

栏目: 数据库 · Redis · 发布时间: 6年前

内容简介:Algorithm Tips: 一致性哈希算法 CARP 原理解析

在后端服务开发的过程中, 遇到了这样一个问题: 需要在 mysql 前面部署 redis 做一层缓存, 要求 redis 是集群部署, 并且每台 redis 节点只缓存总数据量的 1/N, N 为 redis 的个数.

看到这里大家都能想到到一个方法是使用 hash(key)%N 来选取 redis 进行 value 的存取, 这种方式当然可以很均匀的将数据分配到 N 个 redis 服务上, 并且实现起来也非常的简单. 但是使用这种哈希取余的方式有一个很大的问题, 那就是当 redis 集群扩容或者缩容, 或者发生宕机的时候, 也就是上述公式中的 N 发生变化的时候, 这个时候 hash(key)%N 的值保持不变的概率非常小, 换句话说, 缓存系统会在这种情况下整个失效, 这对于后端的 mysql 来说瞬时压力会非常大, 很可能造成 mysql 的奔溃, 进而造成整个服务的不可用.

所以必须想一种办法来应对上述的情况, 即当一台 redis 服务挂掉的时候, 能不能做到只有 1/N 的缓存失效呢?

答案就是使用一致性哈希算法 CARP, 严格来讲 CARP 并不是一种算法, 而是一种协议, Cache Array Routing Protocol,Cache 群组路由协议. 下面来介绍些下它的工作原理:

首先假设有 N 个 redis 服务, 分别是 redis1, redis2 …. redisN, key 是想要获取的数据在 redis 中的键.

第一步, 计算所有的服务名与 key 的哈希值:

hash_v1 = hash(redis1 + key)
hash_v2 = hash(redis2 + key)
...
hash_vN = hash(redisN + key)

第二步, 计算值最大的 hash_vX, 那么选中的便是 redisX:

hash_vX = max(hash_v1, hash_v2, ..., hash_vN)

为什么这么做就可以达到增加一台 redis 服务的时候, 只有 1/(N+1) 的缓存失效呢?

hash_vX1 = max(hash_v1, hash_v2, ..., hash_vN)
hash_vX2 = max(hash_v1, hash_v2, ..., hash_vN, hash_vN+1)

看上面两个表达式, 如果要求 hash_vX2 大于 hash_vX1 , 那么必须 hash_vN+1 大于前面 N 个哈希值, 那么你选取的 hash 函数足够散列的话, hash_vN+1 大于前面 N 个哈希值的概率为 1/(N+1). 你可以自行算一下减少一台 redis 服务时, 缓存失效的概率.

最后, 附上 Golang 实现版本:

package carp

import (
	"crypto/md5"
	"errors"
)

var (
	ErrHaveNoRedis = errors.New("have no redis")
)

// 根据 carp 算法, 从 redisArr 的数组中选择合适的 redis, 返回值为下标
func GetTargetIndex(key string, redisArr []string) (idx int, err error) {
	if len(redisArr) < 1 {
		return -1, ErrHaveNoTarget
	} else if len(redisArr) == 1 {
		return 0, nil
	}

	hashArr := make([]string, len(redisArr))
	for k, v := range redisArr {
		hashArr[k] = hashString(v + key)
	}
	idx = minIdx(hashArr)
	return
}

// 返回 arr 数组中最小值的下标
func minIdx(arr []string) (idx int) {
	if len(arr) < 1 {
		return -1
	}

	idx, min := 0, arr[0]

	for k, v := range arr {
		if v < min {
			idx = k
			min = v
		}
	}
	return
}

func hashString(str string) (hash string) {
	md5sum := md5.Sum([]byte(str))
	return string(md5sum[:])
}

上面的代码中使用了 md5 的哈希算法, 如果你对性能有更高的要求可以使用 FNV 哈希算法.


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

The Big Red Fez

The Big Red Fez

Seth Godin / Free Press / 2002-01-15 / USD 11.00

YOUR WEB SITE IS COSTING YOU MONEY. IT'S ALSO FILLED WITH SIMPLE MISTAKES THAT TURN OFF VISITORS BEFORE THEY HAVE A CHANCE TO BECOME CUSTOMERS. According to marketing guru Seth Godin, a web s......一起来看看 《The Big Red Fez》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具