内容简介:一致性哈希算法在很多领域有应用,例如分布式缓存领域的 MemCache,Redis,负载均衡领域的 Nginx,各类 RPC 框架。不同领域场景不同,需要顾及的因素也有所差异,本文主要讨论在在介绍一致性哈希算法之前,我将会介绍一些哈希算法,讨论它们的区别和使用场景。也会给出一致性哈希算法的 Java 通用实现,可以直接引用,文末会给出 github 地址。友情提示:阅读本文前,最好对一致性哈希算法有所了解,例如你最好听过一致性哈希环这个概念,我会在基本概念上缩短篇幅。
一致性哈希算法在很多领域有应用,例如分布式缓存领域的 MemCache,Redis,负载均衡领域的 Nginx,各类 RPC 框架。不同领域场景不同,需要顾及的因素也有所差异,本文主要讨论在 负载均衡 中一致性哈希算法的设计。
在介绍一致性哈希算法之前,我将会介绍一些哈希算法,讨论它们的区别和使用场景。也会给出一致性哈希算法的 Java 通用实现,可以直接引用,文末会给出 github 地址。
友情提示:阅读本文前,最好对一致性哈希算法有所了解,例如你最好听过一致性哈希环这个概念,我会在基本概念上缩短篇幅。
一致性哈希负载均衡介绍
负载均衡这个概念可以抽象为:从 n 个候选服务器中选择一个进行通信的过程。负载均衡算法有多种多样的实现方式:随机、轮询、最小负载优先等,其中也包括了今天的主角:一致性哈希负载均衡。一致性哈希负载均衡需要保证的是“相同的请求尽可能落到同一个服务器上”,注意这短短的一句描述,却包含了相当大的信息量。“相同的请求” — 什么是相同的请求?一般在使用一致性哈希负载均衡时,需要指定一个 key 用于 hash 计算,可能是:
- 请求方 IP
- 请求服务名称,参数列表构成的串
- 用户 ID
“尽可能” —为什么不是一定?因为服务器可能发生上下线,所以少数服务器的变化不应该影响大多数的请求。这也呼应了算法名称中的“一致性”。
同时,一个优秀的负载均衡算法还有一个隐性要求:流量尽可能均匀分布。
综上所述,我们可以概括出一致性哈希负载均衡算法的设计思路。
- 尽可能保证每个服务器节点均匀的分摊流量
- 尽可能保证服务器节点的上下线不影响流量的变更
哈希算法介绍
哈希算法是一致性哈希算法中重要的一个组成部分,你可以借助 Java 中的 int hashCode()
去理解它。 说到哈希算法,你想到了什么?Jdk 中的 hashCode、SHA-1、MD5,除了这些耳熟能详的哈希算法,还存在很多其他实现,详见HASH 算法一览。可以将他们分成三代:
- 第一代:SHA-1(1993),MD5(1992),CRC(1975),Lookup3(2006)
- 第二代:MurmurHash(2008)
- 第三代:CityHash, SpookyHash(2011)
这些都可以认为是广义上的哈希算法,你可以在wiki 百科 中查看所有的哈希算法。当然还有一些哈希算法如:Ketama,专门为一致性哈希算法而设计。
既然有这么多哈希算法,那必然会有人问:当我们在讨论哈希算法时,我们再考虑哪些东西?我大概总结下有以下四点:
- 实现复杂程度
- 分布均匀程度
- 哈希碰撞概率
- 性能
先聊聊性能,是不是性能越高就越好呢?你如果有看过我曾经的文章 《该如何设计你的 PasswordEncoder?》 ,应该能了解到,在设计加密器这个场景下,慢 hash 算法反而有优势;而在负载均衡这个场景下,安全性不是需要考虑的因素,所以性能自然是越高越好。
优秀的算法通常比较复杂,但不足以构成评价标准,有点黑猫白猫论,所以 2,3 两点:分布均匀程度,哈希碰撞概率成了主要考虑的因素。
我挑选了几个值得介绍的哈希算法,重点介绍下。
-
MurmurHash 算法:高运算性能,低碰撞率,由 Austin Appleby 创建于 2008 年,现已应用到 Hadoop、libstdc++、nginx、libmemcached 等开源系统。2011 年 Appleby 被 Google 雇佣,随后 Google 推出其变种的 CityHash 算法。官方只提供了 C 语言的实现版本。
Java 界中 Redis,Memcached,Cassandra,HBase,Lucene 都在使用它。
在 Java 的实现,Guava 的 Hashing 类里有,上面提到的 Jedis,Cassandra 里都有相关的 Util 类。
-
FNV 算法:全名为 Fowler-Noll-Vo 算法,是以三位发明人 Glenn Fowler,Landon Curt Noll,Phong Vo 的名字来命名的,最早在 1991 年提出。
特点和用途:FNV 能快速 hash 大量数据并保持较小的冲突率,它的高度分散使它适用于 hash 一些非常相近的字符串,比如 URL,hostname,文件名,text,IP 地址等。
-
Ketama 算法:将它称之为哈希算法其实不太准确,称之为一致性哈希算法可能更为合适,其他的哈希算法有通用的一致性哈希算法实现,只不过是替换了哈希方式而已,但 Ketama 是一整套的流程,我们将在后面介绍。
以上三者都是最合适的一致性哈希算法的强力争夺者。
一致性哈希算法实现
一致性哈希的概念我不做赘述,简单介绍下这个负载均衡中的一致性哈希环。首先将服务器(ip+端口号)进行哈希,映射成环上的一个节点,在请求到来时,根据指定的 hash key 同样映射到环上,并顺时针选取最近的一个服务器节点进行请求(在本图中,使用的是 userId 作为 hash key)。
当环上的服务器较少时,即使哈希算法选择得当,依旧会遇到大量请求落到同一个节点的问题,为避免这样的问题,大多数一致性哈希算法的实现度引入了虚拟节点的概念。
在上图中,只有两台物理服务器节点:11.1.121.1 和 11.1.121.2,我们通过添加后缀的方式,克隆出了另外三份节点,使得环上的节点分布的均匀。一般来说,物理节点越多,所需的虚拟节点就越少。
介绍完了一致性哈希换,我们便可以对负载均衡进行建模了:
public interface LoadBalancer { Server select(List<Server> servers, Invocation invocation); } 复制代码
下面直接给出通用的算法实现:
public class ConsistentHashLoadBalancer implements LoadBalancer{ private HashStrategy hashStrategy = new JdkHashCodeStrategy(); private final static int VIRTUAL_NODE_SIZE = 10; private final static String VIRTUAL_NODE_SUFFIX = "&&"; @Override public Server select(List<Server> servers, Invocation invocation) { int invocationHashCode = hashStrategy.getHashCode(invocation.getHashKey()); TreeMap<Integer, Server> ring = buildConsistentHashRing(servers); Server server = locate(ring, invocationHashCode); return server; } private Server locate(TreeMap<Integer, Server> ring, int invocationHashCode) { // 向右找到第一个 key Map.Entry<Integer, Server> locateEntry = ring.ceilingEntry(invocationHashCode); if (locateEntry == null) { // 想象成一个环,超过尾部则取第一个 key locateEntry = ring.firstEntry(); } return locateEntry.getValue(); } private TreeMap<Integer, Server> buildConsistentHashRing(List<Server> servers) { TreeMap<Integer, Server> virtualNodeRing = new TreeMap<>(); for (Server server : servers) { for (int i = 0; i < VIRTUAL_NODE_SIZE; i++) { // 新增虚拟节点的方式如果有影响,也可以抽象出一个由物理节点扩展虚拟节点的类 virtualNodeRing.put(hashStrategy.getHashCode(server.getUrl() + VIRTUAL_NODE_SUFFIX + i), server); } } return virtualNodeRing; } } 复制代码
对上述的程序做简单的解读:
Server 是对服务器的抽象,一般是 ip+port 的形式。
public class Server { private String url; } 复制代码
Invocation 是对请求的抽象,包含一个用于 hash 的 key。
public class Invocation { private String hashKey; } 复制代码
使用 TreeMap 作为一致性哈希环的数据结构, ring.ceilingEntry
可以获取环上最近的一个节点。在 buildConsistentHashRing
之中包含了构建一致性哈希环的过程,默认加入了 10 个虚拟节点。
计算方差,标准差的公式:
public class StatisticsUtil { //方差s^2=[(x1-x)^2 +...(xn-x)^2]/n public static double variance(Long[] x) { int m = x.length; double sum = 0; for (int i = 0; i < m; i++) {//求和 sum += x[i]; } double dAve = sum / m;//求平均值 double dVar = 0; for (int i = 0; i < m; i++) {//求方差 dVar += (x[i] - dAve) * (x[i] - dAve); } return dVar / m; } //标准差σ=sqrt(s^2) public static double standardDeviation(Long[] x) { int m = x.length; double sum = 0; for (int i = 0; i < m; i++) {//求和 sum += x[i]; } double dAve = sum / m;//求平均值 double dVar = 0; for (int i = 0; i < m; i++) {//求方差 dVar += (x[i] - dAve) * (x[i] - dAve); } return Math.sqrt(dVar / m); } } 复制代码
其中, HashStrategy
是下文中重点讨论的一个内容,他是对 hash 算法的抽象,我们将会着重对比各种 hash 算法给测评结果带来的差异性。
public interface HashStrategy { int getHashCode(String origin); } 复制代码
测评程序
前面我们已经明确了一个优秀的一致性哈希算法的设计思路。这一节我们给出实际的量化指标:假设 m 次请求打到 n 个候选服务器上
- 统计每个服务节点收到的流量,计算方差、标准差。测量流量分布均匀情况,我们可以模拟 10000 个随机请求,打到 100 个指定服务器,测试最后个节点的方差,标准差。
- 记录 m 次请求落到的服务器节点,下线 20% 的服务器,重放流量,统计 m 次请求中落到跟原先相同服务器的概率。测量节点上下线的情况,我们可以模拟 10000 个随机请求,打到 100 个指定服务器,之后下线 20 个服务器并重放流量,统计请求到相同服务器的比例。
public class LoadBalanceTest { static String[] ips = {...}; // 100 台随机 ip /** * 测试分布的离散情况 */ @Test public void testDistribution() { List<Server> servers = new ArrayList<>(); for (String ip : ips) { servers.add(new Server(ip+":8080")); } LoadBalancer chloadBalance = new ConsistentHashLoadBalancer(); // 构造 10000 随机请求 List<Invocation> invocations = new ArrayList<>(); for (int i = 0; i < 10000; i++) { invocations.add(new Invocation(UUID.randomUUID().toString())); } // 统计分布 AtomicLongMap<Server> atomicLongMap = AtomicLongMap.create(); for (Server server : servers) { atomicLongMap.put(server, 0); } for (Invocation invocation : invocations) { Server selectedServer = chloadBalance.select(servers, invocation); atomicLongMap.getAndIncrement(selectedServer); } System.out.println(StatisticsUtil.variance(atomicLongMap.asMap().values().toArray(new Long[]{}))); System.out.println(StatisticsUtil.standardDeviation(atomicLongMap.asMap().values().toArray(new Long[]{}))); } /** * 测试节点新增删除后的变化程度 */ @Test public void testNodeAddAndRemove() { List<Server> servers = new ArrayList<>(); for (String ip : ips) { servers.add(new Server(ip)); } List<Server> serverChanged = servers.subList(0, 80); ConsistentHashLoadBalancer chloadBalance = new ConsistentHashLoadBalancer(); // 构造 10000 随机请求 List<Invocation> invocations = new ArrayList<>(); for (int i = 0; i < 10000; i++) { invocations.add(new Invocation(UUID.randomUUID().toString())); } int count = 0; for (Invocation invocation : invocations) { Server origin = chloadBalance.select(servers, invocation); Server changed = chloadBalance.select(serverChanged, invocation); if (origin.getUrl().equals(changed.getUrl())) count++; } System.out.println(count / 10000D); } 复制代码
不同哈希算法的实现及测评
最简单、经典的 hashCode 实现:
public class JdkHashCodeStrategy implements HashStrategy { @Override public int getHashCode(String origin) { return origin.hashCode(); } } 复制代码
FNV1_32_HASH 算法实现:
public class FnvHashStrategy implements HashStrategy { private static final long FNV_32_INIT = 2166136261L; private static final int FNV_32_PRIME = 16777619; @Override public int getHashCode(String origin) { final int p = FNV_32_PRIME; int hash = (int) FNV_32_INIT; for (int i = 0; i < origin.length(); i++) hash = (hash ^ origin.charAt(i)) * p; hash += hash << 13; hash ^= hash >> 7; hash += hash << 3; hash ^= hash >> 17; hash += hash << 5; hash = Math.abs(hash); return hash; } } 复制代码
CRC 算法:
public class CRCHashStrategy implements HashStrategy { private static final int LOOKUP_TABLE[] = {0x0000, 0x1021, 0x2042, 0x3063, 0x4084, 0x50A5, 0x60C6, 0x70E7, 0x8108, 0x9129, 0xA14A, 0xB16B, 0xC18C, 0xD1AD, 0xE1CE, 0xF1EF, 0x1231, 0x0210, 0x3273, 0x2252, 0x52B5, 0x4294, 0x72F7, 0x62D6, 0x9339, 0x8318, 0xB37B, 0xA35A, 0xD3BD, 0xC39C, 0xF3FF, 0xE3DE, 0x2462, 0x3443, 0x0420, 0x1401, 0x64E6, 0x74C7, 0x44A4, 0x5485, 0xA56A, 0xB54B, 0x8528, 0x9509, 0xE5EE, 0xF5CF, 0xC5AC, 0xD58D, 0x3653, 0x2672, 0x1611, 0x0630, 0x76D7, 0x66F6, 0x5695, 0x46B4, 0xB75B, 0xA77A, 0x9719, 0x8738, 0xF7DF, 0xE7FE, 0xD79D, 0xC7BC, 0x48C4, 0x58E5, 0x6886, 0x78A7, 0x0840, 0x1861, 0x2802, 0x3823, 0xC9CC, 0xD9ED, 0xE98E, 0xF9AF, 0x8948, 0x9969, 0xA90A, 0xB92B, 0x5AF5, 0x4AD4, 0x7AB7, 0x6A96, 0x1A71, 0x0A50, 0x3A33, 0x2A12, 0xDBFD, 0xCBDC, 0xFBBF, 0xEB9E, 0x9B79, 0x8B58, 0xBB3B, 0xAB1A, 0x6CA6, 0x7C87, 0x4CE4, 0x5CC5, 0x2C22, 0x3C03, 0x0C60, 0x1C41, 0xEDAE, 0xFD8F, 0xCDEC, 0xDDCD, 0xAD2A, 0xBD0B, 0x8D68, 0x9D49, 0x7E97, 0x6EB6, 0x5ED5, 0x4EF4, 0x3E13, 0x2E32, 0x1E51, 0x0E70, 0xFF9F, 0xEFBE, 0xDFDD, 0xCFFC, 0xBF1B, 0xAF3A, 0x9F59, 0x8F78, 0x9188, 0x81A9, 0xB1CA, 0xA1EB, 0xD10C, 0xC12D, 0xF14E, 0xE16F, 0x1080, 0x00A1, 0x30C2, 0x20E3, 0x5004, 0x4025, 0x7046, 0x6067, 0x83B9, 0x9398, 0xA3FB, 0xB3DA, 0xC33D, 0xD31C, 0xE37F, 0xF35E, 0x02B1, 0x1290, 0x22F3, 0x32D2, 0x4235, 0x5214, 0x6277, 0x7256, 0xB5EA, 0xA5CB, 0x95A8, 0x8589, 0xF56E, 0xE54F, 0xD52C, 0xC50D, 0x34E2, 0x24C3, 0x14A0, 0x0481, 0x7466, 0x6447, 0x5424, 0x4405, 0xA7DB, 0xB7FA, 0x8799, 0x97B8, 0xE75F, 0xF77E, 0xC71D, 0xD73C, 0x26D3, 0x36F2, 0x0691, 0x16B0, 0x6657, 0x7676, 0x4615, 0x5634, 0xD94C, 0xC96D, 0xF90E, 0xE92F, 0x99C8, 0x89E9, 0xB98A, 0xA9AB, 0x5844, 0x4865, 0x7806, 0x6827, 0x18C0, 0x08E1, 0x3882, 0x28A3, 0xCB7D, 0xDB5C, 0xEB3F, 0xFB1E, 0x8BF9, 0x9BD8, 0xABBB, 0xBB9A, 0x4A75, 0x5A54, 0x6A37, 0x7A16, 0x0AF1, 0x1AD0, 0x2AB3, 0x3A92, 0xFD2E, 0xED0F, 0xDD6C, 0xCD4D, 0xBDAA, 0xAD8B, 0x9DE8, 0x8DC9, 0x7C26, 0x6C07, 0x5C64, 0x4C45, 0x3CA2, 0x2C83, 0x1CE0, 0x0CC1, 0xEF1F, 0xFF3E, 0xCF5D, 0xDF7C, 0xAF9B, 0xBFBA, 0x8FD9, 0x9FF8, 0x6E17, 0x7E36, 0x4E55, 0x5E74, 0x2E93, 0x3EB2, 0x0ED1, 0x1EF0,}; /** * Create a CRC16 checksum from the bytes. implementation is from * mp911de/lettuce, modified with some more optimizations * * @param bytes * @return CRC16 as integer value */ public static int getCRC16(byte[] bytes) { int crc = 0x0000; for (byte b : bytes) { crc = ((crc << 8) ^ LOOKUP_TABLE[((crc >>> 8) ^ (b & 0xFF)) & 0xFF]); } return crc & 0xFFFF; } public static int getCRC16(String key) { return getCRC16(key.getBytes(Charset.forName("UTF-8"))); } @Override public int getHashCode(String origin) { // optimization with modulo operator with power of 2 // equivalent to getCRC16(key) % 16384 return getCRC16(origin) & (16384 - 1); } } 复制代码
Ketama 算法:
public class KetamaHashStrategy implements HashStrategy { private static MessageDigest md5Digest; static { try { md5Digest = MessageDigest.getInstance("MD5"); } catch (NoSuchAlgorithmException e) { throw new RuntimeException("MD5 not supported", e); } } @Override public int getHashCode(String origin) { byte[] bKey = computeMd5(origin); long rv = ((long) (bKey[3] & 0xFF) << 24) | ((long) (bKey[2] & 0xFF) << 16) | ((long) (bKey[1] & 0xFF) << 8) | (bKey[0] & 0xFF); return (int) (rv & 0xffffffffL); } /** * Get the md5 of the given key. */ public static byte[] computeMd5(String k) { MessageDigest md5; try { md5 = (MessageDigest) md5Digest.clone(); } catch (CloneNotSupportedException e) { throw new RuntimeException("clone of MD5 not supported", e); } md5.update(k.getBytes()); return md5.digest(); } } 复制代码
MurmurHash 算法:
public class MurmurHashStrategy implements HashStrategy { @Override public int getHashCode(String origin) { ByteBuffer buf = ByteBuffer.wrap(origin.getBytes()); int seed = 0x1234ABCD; ByteOrder byteOrder = buf.order(); buf.order(ByteOrder.LITTLE_ENDIAN); long m = 0xc6a4a7935bd1e995L; int r = 47; long h = seed ^ (buf.remaining() * m); long k; while (buf.remaining() >= 8) { k = buf.getLong(); k *= m; k ^= k >>> r; k *= m; h ^= k; h *= m; } if (buf.remaining() > 0) { ByteBuffer finish = ByteBuffer.allocate(8).order( ByteOrder.LITTLE_ENDIAN); // for big-endian version, do this first: // finish.position(8-buf.remaining()); finish.put(buf).rewind(); h ^= finish.getLong(); h *= m; } h ^= h >>> r; h *= m; h ^= h >>> r; buf.order(byteOrder); return (int) (h & 0xffffffffL); } } 复制代码
测评结果:
方差 | 标准差 | 不变流量比例 | |
---|---|---|---|
JdkHashCodeStrategy | 29574.08 | 171.97 | 0.6784 |
CRCHashStrategy | 3013.02 | 54.89 | 0.7604 |
FnvHashStrategy | 961.64 | 31.01 | 0.7892 |
KetamaHashStrategy | 1254.64 | 35.42 | 0.7986 |
MurmurHashStrategy | 815.72 | 28.56 | 0.7971 |
其中方差和标准差反映了均匀情况,越低越好,可以发现 MurmurHashStrategy,KetamaHashStrategy,FnvHashStrategy 都表现的不错。
不变流量比例体现了服务器上下线对原有请求的影响程度,不变流量比例越高越高,可以发现 KetamaHashStrategy 和 MurmurHashStrategy 表现最为优秀。
我并没有对小集群,小流量进行测试,样本偏差性较大,仅从这个常见场景来看,MurmurHashStrategy 是一个不错的选择,多次测试后发现 FnvHashStrategy , KetamaHashStrategy , MurmurHashStrategy 差距不是很大。
至于性能测试,MurmurHash 也十分的高性能,我并没有做测试(感兴趣的同学可以对几种 strategy 用 JMH 测评一下),这里我贴一下 MurmurHash 官方的测评数据:
OneAtATime - 354.163715 mb/sec FNV - 443.668038 mb/sec SuperFastHash - 985.335173 mb/sec lookup3 - 988.080652 mb/sec MurmurHash 1.0 - 1363.293480 mb/sec MurmurHash 2.0 - 2056.885653 mb/sec 复制代码
扩大虚拟节点可以明显降低方差和标准差,但虚拟节点的增加会加大内存占用量以及计算量
Ketama 一致性哈希算法实现
Ketama 算法有其专门的配套实现方式
public class KetamaConsistentHashLoadBalancer implements LoadBalancer { private static MessageDigest md5Digest; static { try { md5Digest = MessageDigest.getInstance("MD5"); } catch (NoSuchAlgorithmException e) { throw new RuntimeException("MD5 not supported", e); } } private final static int VIRTUAL_NODE_SIZE = 12; private final static String VIRTUAL_NODE_SUFFIX = "-"; @Override public Server select(List<Server> servers, Invocation invocation) { long invocationHashCode = getHashCode(invocation.getHashKey()); TreeMap<Long, Server> ring = buildConsistentHashRing(servers); Server server = locate(ring, invocationHashCode); return server; } private Server locate(TreeMap<Long, Server> ring, Long invocationHashCode) { // 向右找到第一个 key Map.Entry<Long, Server> locateEntry = ring.ceilingEntry(invocationHashCode); if (locateEntry == null) { // 想象成一个环,超过尾部则取第一个 key locateEntry = ring.firstEntry(); } return locateEntry.getValue(); } private TreeMap<Long, Server> buildConsistentHashRing(List<Server> servers) { TreeMap<Long, Server> virtualNodeRing = new TreeMap<>(); for (Server server : servers) { for (int i = 0; i < VIRTUAL_NODE_SIZE / 4; i++) { byte[] digest = computeMd5(server.getUrl() + VIRTUAL_NODE_SUFFIX + i); for (int h = 0; h < 4; h++) { Long k = ((long) (digest[3 + h * 4] & 0xFF) << 24) | ((long) (digest[2 + h * 4] & 0xFF) << 16) | ((long) (digest[1 + h * 4] & 0xFF) << 8) | (digest[h * 4] & 0xFF); virtualNodeRing.put(k, server); } } } return virtualNodeRing; } private long getHashCode(String origin) { byte[] bKey = computeMd5(origin); long rv = ((long) (bKey[3] & 0xFF) << 24) | ((long) (bKey[2] & 0xFF) << 16) | ((long) (bKey[1] & 0xFF) << 8) | (bKey[0] & 0xFF); return rv; } private static byte[] computeMd5(String k) { MessageDigest md5; try { md5 = (MessageDigest) md5Digest.clone(); } catch (CloneNotSupportedException e) { throw new RuntimeException("clone of MD5 not supported", e); } md5.update(k.getBytes()); return md5.digest(); } } 复制代码
稍微不同的地方便在于:Ketama 将四个节点标为一组进行了虚拟节点的设置。
方差 | 标准差 | 不变流量比例 | |
---|---|---|---|
KetamaConsistentHashLoadBalancer | 911.08 | 30.18 | 0.7936 |
实际结果并没有太大的提升,可能和测试数据的样本规模有关。
总结
优秀的哈希算法和一致性哈希算法可以帮助我们在大多数场景下应用的高性能,高稳定性,但在实际使用一致性哈希负载均衡的场景中,最好针对实际的集群规模和请求哈希方式进行压测,力保流量均匀打到所有的机器上,这才是王道。
不仅仅是分布式缓存,负载均衡等等有限的场景,一致性哈希算法、哈希算法,尤其是后者,是一个用处很广泛的常见算法,了解它的经典实现是很有必要的,例如 MurmurHash,在 guava 中就有其 Java 实现,当需要高性能,分布均匀,碰撞概率小的哈希算法时,可以考虑使用它。
本文代码的 github 地址:https://github.com/lexburner/consistent-hash-algorithm
以上所述就是小编给大家介绍的《一致性哈希负载均衡算法的探讨》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 负载均衡策略之有限负载一致性哈希
- 一致性哈希负载均衡算法的探讨
- 一致性哈希负载均衡算法的探讨
- 负载均衡--golang实现一致性hash算法
- 一致性Hash在负载均衡中的炫技
- Dubbo 一致性哈希负载均衡的源码和 Bug,了解一下?
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。