性能测试:压榨一下 ServiceComb

栏目: 编程语言 · 发布时间: 5年前

内容简介:开卷有益,关注我们

性能测试:压榨一下 ServiceComb

开卷有益,关注我们

性能测试:压榨一下 ServiceComb

前言

本文以一个最简单的单consumer->单producer的测试场景为例,说明了如何在指定测试环境中,通过观察metrics统计数据,不断调整参数压榨出最大性能。

基本测试过程:

  1. 测试驱动加大压力,TPS逐渐上升。

  2. 驱动压力达到一定程度后,TPS不再上升,或是缓慢上升,甚至是下降,此时伴随着时延明显上升,称之为性能拐点。

  3. 调整consumer/producer各种参数(网络线程/业务线程等等),提升处理能力。

  4. 重新调整测试驱动压力(加大或减小),重复前面步骤。

  5. 输出最终性能拐点时的各项参数,包括TPS/时延/CPU/带宽等等。

性能测试:压榨一下 ServiceComb

环境确认

01

使用华为云c3.2xlarge.2 VM

华为云c3.2xlarge.2 VM

Node1

192.168.26.44

Node2

192.168.29.195

备注:Node1 ping Node2:平均0.171ms

02

网络

打开网卡的RSS特性,执行ethtool -l eth0,得到类似下图的数据。

性能测试:压榨一下 ServiceComb

如果Pre-set的Combined不等于Current的Combined,则执行ethtool -L eth0 combined {Pre-Set Combined}改为相等,在这里应该是ethtool -L eth0 combined 4

打开网络队列的自动负载均衡:service irqbalance start

03

CPU

cat /proc/cpuinfo | grep name

8  Intel(R) Xeon(R) Gold 6151 CPU @ 3.00GHz

04

内存

dmidecode -t memory

16GB

性能测试:压榨一下 ServiceComb

部署

01

service center

  1. 下载service center

    http://mirror.bit.edu.cn/apache/servicecomb/servicecomb-service-center/1.1.0/apache-servicecomb-service-center-1.1.0-linux-amd64.tar.gz

  2. 上传到Node2,解压

  3. 修改conf/app.conf,监听地址设为Node2小网IP

    Httpaddr = 192.168.29.195

  4. 启动service center

02

编译用例工程

  1. 下载源码

    git clone https://github.com/apache/servicecomb-java-chassis.git

  2. 编译

    mvn clean install -Dmaven.test.skip=true

    cd demo/perf

    mvn install -Pdemo-run-release -Dmaven.test.skip=true

编译时增加maven.test.skip仅仅是为了加快编译速度。

03

Producer

  1. 在Node2的demo/target/perf目录中新建microservice.yaml:

    service_description:

    name: perf1

    servicecomb:

    service:

    registry:

    address: http://192.168.29.195:30100

    highway:

    address: 192.168.29.195:7070

    server:

    thread-count: 1

    rest:

    address: 192.168.29.195:8080

    server:

    thread-count: 1

    response-size: 1024

  2. 启动:

    java –jar perf*

04

测试驱动:Consumer

  1. 在Node1的demo/target/perf目录中新建microservice.yaml:

    service_description:

    name: consumer

    servicecomb:

    service:

    registry:

    address: http://192.168.29.195:30100

    highway:

    address: 192.168.26.44:7070

    client:

    thread-count: 1

    rest:

    address: 192.168.26.44:8080

    client:

    thread-count: 1

    connection:

    maxPoolSize: 5

    references:

         transport: highway

    metrics:

    window_time: 1000

    publisher.defaultLog:

    enabled: true

    endpoints.client.detail.enabled: true

  2. 启动:

    java –jar perf* -c

性能测试:压榨一下 ServiceComb

Highway

01

同步调优

Consumer的microservice.yaml中配置:

sync-count: 1

sync: true

TPS/时延/CPU/带宽消耗都很低

性能测试:压榨一下 ServiceComb

此时驱动并发度才1,太低,加大驱动压力到500

sync-count: 500

Producer CPU很低

性能测试:压榨一下 ServiceComb

1、TPS上升到了10多万。

2、时延3+ms,偏高。

3、Producer本身时延并不太大,8C才用了不到2C,并且默认的2组业务线程中只有1组在工作(默认线程池,每1组与一个网络线程绑定)。

为充分使用网络带宽,提升网络连接数:

Consumer:

servicecomb:

highway:

client:

thread-count: 8

Producer:

servicecomb:

highway:

server:

thread-count: 8

Producer 线程池排队

性能测试:压榨一下 ServiceComb

1、TPS进一步提升到36万左右。

2、Consumer时延从3+ms降低到1+ms。

3、Producer线程池有排队现象,考虑扩展线程池,有2种思路,1是加大每个池中的线程数,1是加大线程组数。

因为这个性能测试场景,业务非常轻量,tps已经达到了几十万级别,线程池入队的竞争/唤醒会比较激烈,加大线程数,效果并不会太好。

实际验证也确实如此,加大线程数,TPS基本不变;所以这里加大线程组,减小竞争概率,并且减小每组线程数,减少线程切换,Producer:

servicecomb:

executor:

default:

group: 4

thread-per-group: 2

最终效果

性能测试:压榨一下 ServiceComb

1、TPS提升到45万左右,时延少量下降。

2、尝试调整驱动并发数sync-count,从当前的500并发往下调,TPS下降,往上调,TPS基本不变,而时延上升,处于性能拐点。

02

Reactive调优

Consumer的microservice.yaml中配置:

async-count: 1

sync: false

TPS/时延/CPU/带宽消耗都很低

性能测试:压榨一下 ServiceComb

1、此时驱动并发度才1,太低,加大驱动压力到500。

2、1个并发驱动,有2条连接,是因为开始压测前,独立调用了一次,用于打印调用结果;从非eventloop线程发起reactive调用,会随机选择一个网络线程去建立连接。

async-count: 500

Consumer最大时延偏高,Producer CPU消耗偏低

性能测试:压榨一下 ServiceComb

1、该环境中RSS网络队列只有4个,与CPU数不对等,限制了并发能力,所以Producer CPU偏低。

2、在reactive场景下,网络线程即业务线程,有任何的波动,都会导致最大时延变大。

性能测试:压榨一下 ServiceComb

RESTful

ServiceComb中不同transport切换,只需要修改配置,无需修改业务代码。

Consumer的microservice.yaml中配置:

Servicecomb:

references:

   transport: rest

sync-count: 500

sync: true

01

同步调优

CPU占用极少,时延超大

性能测试:压榨一下 ServiceComb

因为默认网络线程只有1,所以这里需要调大网络线程。

Consumer:

servicecomb:

rest:

client:

thread-count: 8

Producer:

servicecomb:

rest:

server:

thread-count: 8

连接池耗时较大

性能测试:压榨一下 ServiceComb

1、CPU消耗正常了,TPS提升到15万多,时延仍然较大。

2、主要消耗从连接池获取连接,默认每个网络线程对每个ip:port建立5个连接,所以共建立了40条连接,而有500个并发请求,考虑扩展连接池。

调整连接池,TPS不变,时延少量降低

servicecomb:

rest:

client:

connection:

maxPoolSize: 15

尝试每个池连接数为15/30/60等等,TPS在18万左右已经达到上限。

性能测试:压榨一下 ServiceComb

降低驱动压力,调整为80时已经可以达到极限TPS

servicecomb:

rest:

client:

connection:

maxPoolSize: 10

sync-count: 80

02

Reactive调优

直接调大连接池

servicecomb:

rest:

client:

connection:

maxPoolSize: 30

async-count: 500

sync: false

性能测试:压榨一下 ServiceComb

CPU基本耗尽,时延偏大,考虑降低驱动压力到100。

servicecomb:

rest:

client:

connection:

maxPoolSize: 15

async-count: 100

性能测试:压榨一下 ServiceComb

性能测试:压榨一下 ServiceComb

测试结果

汇总

性能测试:压榨一下 ServiceComb

性能测试:压榨一下 ServiceComb

注:

从metrics数据中可以看到,有时os级别的cpu占用反而小于进程级的占用。 通过在 linux 中直接观察top/htop的输出,也有相同的现象,虚机中尤其容易出现,相对而言,物理机会好一些。再 查看top/htop源码,发现htop的算法与top还不一样,htop的计算更容易导致诡异的计算结果。

我们在最新版本的ServiceComb中调整了输出格式,跟top保持一致,进程级的cpu占用按Irix模式展示,os级的cpu占用按Solaris模式展示。

如在阅读时有任何疑问想交流,欢迎扫码加入进微信群。

用心做开源,不忘初衷

性能测试:压榨一下 ServiceComb

期待志同道合的朋友们加入

ServiceComb的大门为你们敞开~

识别二维码

添加微服务小助手

性能测试:压榨一下 ServiceComb

性能测试:压榨一下 ServiceComb

精彩阅读

[学习微服务-第9天]

Service-Center使用入门

[学习微服务-第8天]

ServiceComb内置负载均衡组件handler-loadbalance

[学习微服务第7天]

ServiceComb+SpringCloud Ribbon源码解读

[学习微服务-第6天]

负载均衡之ServiceComb + SpringCloud Ribbon

[学习微服务-第5天]

ServiceComb+Zipkin源码解读

[学习微服务-第4天]

ServiceComb+Zipkin

[学习微服务-第3天]

ServiceComb内置高性能网关服务

[每天学习微服务-源码解读]

ServiceComb+SpringCloud Zuul

[每天学习微服务-网关]

ServiceComb+SpringCloud Zuul

性能测试:压榨一下 ServiceComb

关注我们

性能测试:压榨一下 ServiceComb

性能测试:压榨一下 ServiceComb

知识就是力量

长按识别二维码

缘分,或许就在“好看”里

性能测试:压榨一下 ServiceComb

性能测试:压榨一下 ServiceComb

击“ 阅读原文 ”给 ServiceComb点个“Star”吧


以上所述就是小编给大家介绍的《性能测试:压榨一下 ServiceComb》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

乔纳森传

乔纳森传

利恩德·卡尼 / 汪琪 岳卉 王文雅 / 中信出版社 / 2014-1-1 / 49

抛开苹果公司,单就设计行业来讲,乔纳森也是一个特殊的人物。他推动了设计行业的大变革:不再为产品增加看起来炫得多的配件,而是要去掉多余的东西。 ——陈向东 终于有一本书能够如此地接地气:它不再关注那位神一样的乔布斯,而是关注那位站在神的背后,同样具有神一样光环的乔纳森。 ——孙陶然 乔纳森•艾夫把他自己对科学、人文、艺术,乃至整个世界的感知尽数渗透进苹果的设计和审美之中,他是......一起来看看 《乔纳森传》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换