内容简介:本文详细介绍Nginx和Tomcat来配置负载均衡集群的过程以及Nginx的复杂均衡策略。
一、Hello world
1、前期环境准备
- 准备两个解压版tomcat,如何同时启动两个tomcat,请看我的另一篇文章《一台机器同时启动多个tomcat》。
- nginx官网下载解压版nginx。
- 创建一个简单的web项目。为了直观的区分访问的哪个tomcat,在页面写上标记8081、8082。
- 分别部署到对应的tomcat下。如图:
2、配置nginx
进入nginx-1.10.1conf路径,修改配置文件nginx.conf。
1、配置服务器组,在http{}节点之间添加upstream配置。(注意不要写localhost,不然访问速度会很慢)
|
1 2 3 4 |
upstream nginxDemo { server 127.0.0.1:8081; #服务器地址1 server 127.0.0.1:8082; #服务器地址2 } |
2、修改nginx监听的端口号80,改为8080。
|
1 2 3 4 |
server { listen 8080; ...... } |
3、在location{}中,利用proxy_pass配置反向代理地址;此处“http://”不能少,后面的地址要和第一步upstream定义的名称保持一致。
|
1 2 3 4 5 |
location / { root html; index index.html index.htm; proxy_pass http://nginxDemo; #配置方向代理地址 } |
如下图:
3、启动nginx和tomcat,访问
我是Windows系统,所以直接在nginx-1.10.1目录下双击nginx.exe即可。
可在任务管理器中查看
最后在浏览器输入地址:http://localhost:8080/nginxDemo/index.jsp,每次访问就会轮流访问tomcat了(如果F5刷新不管用,建议试试鼠标指针放到地址栏,点击Enter键)。
到这里,一个非常简单的负载均衡就配置完成了,是不是很简单呢,O(∩_∩)O哈哈~
二、nginx负载均衡策略
1、轮询(默认)
每个web请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
|
1 2 3 4 |
upstream nginxDemo { server 127.0.0.1:8081; server 127.0.0.1:8082; } |
2、最少链接
web请求会被转发到连接数最少的服务器上。
|
1 2 3 4 5 |
upstream nginxDemo { least_conn; server 127.0.0.1:8081; server 127.0.0.1:8082; } |
3、weight 权重
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况,weight默认是1。
|
1 2 3 4 5 |
#服务器A和服务器B的访问比例为:2-1;比如有3个请求,前两个会访问A,三个访问B,其它规则和轮询一样。 upstream nginxDemo { server 127.0.0.1:8081 weight=2; #服务器A server 127.0.0.1:8082; #服务器B } |
4、ip_hash
每个请求按访问ip的hash值分配,这样同一客户端连续的Web请求都会被分发到同一服务器进行处理,可以解决session的问题。当后台服务器宕机时,会自动跳转到其它服务器。
|
1 2 3 4 5 |
upstream nginxDemo { ip_hash; server 127.0.0.1:8081 weight=2; #服务器A server 127.0.0.1:8082; #服务器B } |
基于weight的负载均衡和基于ip_hash的负载均衡可以组合在一起使用。
5、url_hash(第三方)
url_hash是nginx的第三方模块,nginx本身不支持,需要打补丁。
nginx按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存服务器、文件服务器、静态服务器时比较有效。缺点是当后端服务器宕机的时候,url_hash不会自动跳转的其他缓存服务器,而是返回给用户一个503错误。
|
1 2 3 4 5 |
upstream nginxDemo { server 127.0.0.1:8081; #服务器A server 127.0.0.1:8082; #服务器B hash $request_url; } |
6、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
|
1 2 3 4 5 |
upstream nginxDemo { server 127.0.0.1:8081; #服务器A server 127.0.0.1:8082; #服务器B fair; } |
~未完待续~
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- dubbo集群和负载均衡
- 认识认识LVS负载均衡集群
- 高可用负载均衡集群之 HAProxy 部署
- Keepalived+Nginx搭建高可用负载均衡集群
- 在 Kubernetes 集群中 gRPC 的负载均衡
- 利用saltstack一键部署高可用负载均衡集群
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Building Web Reputation Systems
Randy Farmer、Bryce Glass / Yahoo Press / 2010 / GBP 31.99
What do Amazon's product reviews, eBay's feedback score system, Slashdot's Karma System, and Xbox Live's Achievements have in common? They're all examples of successful reputation systems that enable ......一起来看看 《Building Web Reputation Systems》 这本书的介绍吧!