内容简介:Alpha可以通过扩展部署节点个数实现高可用集群部署,并且通过在节点上设置启动参数 alpha.event.scanner.enabled=false 关闭某些节点的后台定时执行的事务扫描,避免多个节点同时扫描事物表而可能导致的性能问题。但是当启动事务扫描的进程宕机后会导致没有进程进行事务扫描,从而导致事务补偿失败。在0.4.0版本中,我们通过一种基于数据库表的抢占锁机制,实现Alpha集群中主节点的动态选举,并让事务扫描方法只在主节点上执行。当主节点宕机后其他节点通过抢占的方式选出一个新的主节点,本文将介
Alpha可以通过扩展部署节点个数实现高可用集群部署,并且通过在节点上设置启动参数 alpha.event.scanner.enabled=false 关闭某些节点的后台定时执行的事务扫描,避免多个节点同时扫描事物表而可能导致的性能问题。但是当启动事务扫描的进程宕机后会导致没有进程进行事务扫描,从而导致事务补偿失败。
在0.4.0版本中,我们通过一种基于数据库表的抢占锁机制,实现Alpha集群中主节点的动态选举,并让事务扫描方法只在主节点上执行。当主节点宕机后其他节点通过抢占的方式选出一个新的主节点,本文将介绍在0.4.0版本相关的代码实现。
快速体验
在0.4.0版本中开启动态管理节点支持只需要增加启动参数alpha.cluster.master.enabled=true
例如:
0 1 分别启动两个节点
java -jar alpha-server-0.4.0-SNAPSHOT-exec.jar \
--server.port=8090 \
--alpha.server.port=8080 \
--spring.datasource.url="jdbc:postgresql://127.0.0.1:5432/saga?useSSL=false" \
--spring.datasource.username=saga-user \
--spring.datasource.password=saga-password \
--alpha.cluster.master.enabled=true
java -jar alpha-server-0.4.0-SNAPSHOT-exec.jar \
--server.port=8091 \
--alpha.server.port=8081 \
--spring.datasource.url="jdbc:postgresql://127.0.0.1:5432/saga?useSSL=false" \
--spring.datasource.username=saga-user \
--spring.datasource.password=saga-password \
--alpha.cluster.master.enabled=true
0 2 启动后可以在日志中看到节点类型信息
在日志中看到Master Node,则表示这个进程是主节点:
01:31:07.032 [pool-3-thread-1] INFOorg.apache.servicecomb.pack.alpha.server.cluster.master.ClusterLockService - Master Node
在日志中看到Slave Node,则表示这个进程是从节点
01:31:31.059 [pool-3-thread-1] INFOorg.apache.servicecomb.pack.alpha.server.cluster.master.ClusterLockService - Slave Node
03 节点切换
当主节点进程宕后2秒钟,其他从节点会采用抢占的方式使自己成为主节点。
让事务扫描运行在主节点
事务扫描是通过EventScanner.java实现的,并且在AlphaConfig.java中进行初始化。在下面的例子中,可以看到在new EventScanner代码执行前进行了eventScannerEnabled判断,这个参数就是通过alpha.event.scanner.enabled指定的(默认是true),然后传入了nodeStatus 对象,这个对象就记录着这个节点的状态(主节点或者从节点),后边会讲解nodeStatus是如何构造的。
@BeanTxConsistentService txConsistentService(
@Value("${alpha.event.pollingInterval:500}") int eventPollingInterval,
@Value("${alpha.event.scanner.enabled:true}") boolean eventScannerEnabled,
ScheduledExecutorService scheduler,
TxEventRepository eventRepository,
CommandRepository commandRepository,
TxTimeoutRepository timeoutRepository,
OmegaCallback omegaCallback) {
if (eventScannerEnabled) {
new EventScanner(scheduler,
eventRepository, commandRepository, timeoutRepository,
omegaCallback, eventPollingInterval, nodeStatus).run();
LOG.info("Starting the EventScanner.");
}
TxConsistentService consistentService = new TxConsistentService(eventRepository);
return consistentService;
}
用EventScanner.java的pollEvents方法进行定时事务扫描,并使用nodeStatus.isMaster()判断自己是否是主节点,只有主节点才允许执行。看到这里大家应该知道nodeStatus.isMaster()是我们判断主节点的关键对象,那么NodeStatus.java是如何被创建并初始化的呢?
private void pollEvents() {scheduler.scheduleWithFixedDelay(
() -> {
// only pull the events when working in the master mode
if(nodeStatus.isMaster()){
updateTimeoutStatus();
findTimeoutEvents();
abortTimeoutEvents();
saveUncompensatedEventsToCommands();
compensate();
updateCompensatedCommands();
deleteDuplicateSagaEndedEvents();
updateTransactionStatus();
}
},
0,
eventPollingInterval,
MILLISECONDS);
}
我们在AlphaConfig.java中通过以下方式声明,以确保无论您是否指定了alpha.cluster.master.enabled参数,事务扫描都可以正常工作。在这里可以看到当我们开启了集群模式后,节点刚启动时的状态是Slave,下面会说明状态是如何切换到Master的。
@BeanNodeStatus nodeStatus (){
if(masterEnabled){
return new NodeStatus(NodeStatus.TypeEnum.SLAVE);
}else{
return new NodeStatus(NodeStatus.TypeEnum.MASTER);
}
}
@Autowired
NodeStatus nodeStatus;
控制节点状态切换的是ClusterLockService.java,这个服务会定时执行锁抢占,抢占成功后设置本节点为Master,否则为Slave。
@AutowiredLockProvider lockProvider;
...
...
@Scheduled(cron = "0/1 * * * * ?")
public void masterCheck() {
if (applicationReady) {
this.locker = lockProvider.lock(this.getMasterLock());
if (this.locker.isPresent()) {
if (!this.locked) {
this.locked = true;
nodeStatus.setTypeEnum(NodeStatus.TypeEnum.MASTER);
LOG.info("Master Node");
}
//Keep locked
} else {
if (this.locked || !lockExecuted) {
locked = false;
nodeStatus.setTypeEnum(NodeStatus.TypeEnum.SLAVE);
LOG.info("Slave Node");
}
}
lockExecuted = true;
}
}
加锁服务基础类
在前边的说明中可以看到,在ClusterLockService.java的masterCheck方法中通过this.locker = lockProvider.lock(this.getMasterLock());获取一个锁并判断是否锁成功。
LockProvider.java 是一个接口,目前我们提供了基于JDBC的实现,包结构以及类依赖关系,如下图:
依赖关系如下:
-
LockProvider.java
接口定义了锁方法lock。
-
LockProviderPersistence.java
接口定义了以下三个方法,作为持久化锁的接口。
-
initLock 创建锁,尝试进行锁定并返回锁定是否成功。
-
updateLock 更新锁,进行再次锁定并返回是否成功(更新锁的接口设计的目的是为了非长连接锁设计,例如对于按照固定周期进行加锁的实现)。
-
unLock 解锁,取消锁定。
-
AbstractLockProvider.java
抽象类实现了LockProvider.java接口的lock方法,并调用内部的LockProviderPersistence接口进行锁操作。
加锁服务 JDBC 实现
举个栗子: 我喜欢和你们一起跑步,一致的步伐,一样的心跳,这感觉真好,当你掉队了,我带着大家跑
1. JDBC锁类关系图如下:
-
JdbcLockPersistence.java
LockProviderPersistence.java接口实现,用来实现对数据库表操作。
-
JdbcLockProvider.java
继承抽象类AbstractLockProvider.java,在构造函数中传入LockProviderPersistence.java的接库实现JdbcLockPersistence。
-
LockProviderJdbcConfiguration.java
锁的JDBC实例构造类。
-
JPA操作相关类
通过JPA操作master_lock表的相关功能定义在以下几个类。
MasterLockEntityRepository.java、SpringMasterLockRepository.java、org.apache.servicecomb.pack.alpha.server.cluster.master.provider.jdbc.jpa.*
2. 锁定表结构设计如下
CREATE TABLE IF NOT EXISTS master_lock (serviceName varchar(36) not NULL,
expireTime timestamp(3) not NULL,
lockedTime timestamp(3) not NULL,
instanceId varchar(255) not NULL,
PRIMARY KEY (serviceName)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
-
serviceName 服务名,这个字段取值 ${spring.application.name}
-
expireTime 锁定过期时间,这个字段取值 lockedTime+5s
-
lockedTime 最近一次锁定时间
-
instanceId 集群实例ID,这个字段取值 ${alpha.server.host}]:${alpha.server.port}
加锁过程
加锁/更新锁的过程是一个周期性重复执行的动作,步骤如下:
01. ClusterLockService.java服务中会每秒调用一次LockProvider.java接口的lock方法。
02. AbstractLockProvider.java抽象类中的lock方法会尝试调用JdbcLockPersistence.java的iniLock方法进行加锁,加锁的 SQL 实现定义在MasterLockEntityRepository.java中。
-
如果表为空,那么插入一条记录并返回加锁成功。
-
如果表中存在serviceName字段相同的记录,则捕获异常加锁失败 。
@Transactional@Modifying
@Query(value = "INSERT INTO master_lock "
+ "(serviceName, expireTime, lockedTime, instanceId) "
+ "VALUES "
+ "(?1, ?2, ?3, ?4)", nativeQuery = true)
int initLock(
@Param("serviceName") String serviceName,
@Param("expireTime") Date expireTime,
@Param("lockedTime") Date lockedTime,
@Param("instanceId") String instanceId);
03. 如果initLock加锁失败,则尝试调用MasterLockEntityRepository.java中的updateLock方法尝试更新锁。
-
表中存在的本服务记录instanceId与本实例instanceId相同,则更新成功并返回加锁成功(这个表明上一个更新周期也是本服务更新的)。
-
表中存在的本服务记录expireTime小于当前锁定时间 ,则更新成功并返回加锁成功(表示上一个锁定周期并没有实例进行锁定更新操作)。
@Transactional@Modifying(clearAutomatically = true)
@Query("UPDATE org.apache.servicecomb.pack.alpha.server.cluster.master.provider.jdbc.jpa.MasterLock t "
+ "SET t.expireTime = :expireTime"
+ ",t.lockedTime = :lockedTime "
+ ",t.instanceId = :instanceId "
+ "WHERE t.serviceName = :serviceName AND (t.expireTime <= :lockedTime OR t.instanceId = :instanceId)")
int updateLock(
@Param("serviceName") String serviceName,
@Param("lockedTime") Date lockedTime,
@Param("expireTime") Date expireTime,
@Param("instanceId") String instanceId);
04. 释放锁unLock
系统中并没有进行释放锁的调用,因为不在JDBC层面,不会导致事务锁定,对于扩展实现它方式的锁实现预留接口。
抢占锁的其他实现
分布式锁可以通过扩展LockProvider.java和LockProviderPersistence.java接口提供多种实现,例如zookeeper,redis等。
注意
-
基于数据库表的方式需要集群中多个节点的服务器时钟同步。
-
基于 mysql 数据库时需要在JDBC连接地址中增加时区配置,serverTimezone=GMT%2b8。
-
关于脑裂问题:
由于网络、进程假死、中间件可能导致的脑裂问题在一定程度上不可避免,所以我们需要做一种权衡,即脑裂发生时是否可以避免问题进一步扩大。基于JDBC的分布式锁住要避免多个节点同时对事务表进行扫描,两者都是进行数据库操作,因为它们都基于数据库所以能够在一定程度上避免脑裂导致的集群处理问题,但是基于zookeeper,redis的方式可能会导致真实的脑裂发生,如果有什么更好的方法也可以在评论中留言,或者加入我们的微信群一起交流讨论。
添加小助手,扫码进群~
END
你点的每个赞,我都认真当成了喜欢
戳 “阅读原文” 即刻GET商业版CSE!
以上所述就是小编给大家介绍的《ServiceComb Alpha 集群动态主节点实现》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 监控 Kubernetes 集群节点
- 4.2 集群节点初步搭建
- Hadoop教程:多节点集群
- Kubernetes集群跨节点挂载CephFS
- Kubernetes集群跨节点挂载CephFS
- 安装和配置Hadoop集群(3节点)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Elements of Programming
Alexander A. Stepanov、Paul McJones / Addison-Wesley Professional / 2009-6-19 / USD 39.99
Elements of Programming provides a different understanding of programming than is presented elsewhere. Its major premise is that practical programming, like other areas of science and engineering, mus......一起来看看 《Elements of Programming》 这本书的介绍吧!