内容简介:在netty基本组件介绍中,我们大致了解了netty的一些基本组件,今天我们来搭建一个基于netty的Tcp服务端程序,通过代码来了解和熟悉这些组件的功能和使用方法。首先我们自己创建一个Server类,命名为TCPServer第一步初始化ServerBootstrap,ServerBootstrap是netty中的一个服务器引导类,对ServerBootstrap的实例化就是创建netty服务器的入口
在netty基本组件介绍中,我们大致了解了netty的一些基本组件,今天我们来搭建一个基于netty的Tcp服务端程序,通过代码来了解和熟悉这些组件的功能和使用方法。
首先我们自己创建一个Server类,命名为TCPServer
第一步初始化ServerBootstrap,ServerBootstrap是netty中的一个服务器引导类,对ServerBootstrap的实例化就是创建netty服务器的入口
public class TCPServer {
private Logger log = LoggerFactory.getLogger(getClass());
//端口号
private int port=5080;
//服务器运行状态
private volatile boolean isRunning = false;
//处理Accept连接事件的线程,这里线程数设置为1即可,netty处理链接事件默认为单线程,过度设置反而浪费cpu资源
private final EventLoopGroup bossGroup = new NioEventLoopGroup(1);
//处理hadnler的工作线程,其实也就是处理IO读写 。线程数据默认为 CPU 核心数乘以2
private final EventLoopGroup workerGroup = new NioEventLoopGroup();
public void init() throws Exception{
//创建ServerBootstrap实例
ServerBootstrap serverBootstrap=new ServerBootstrap();
//初始化ServerBootstrap的线程模型
serverBootstrap.group(workerGroup,workerGroup);//
//设置将要被实例化的ServerChannel类
serverBootstrap.channel(NioServerSocketChannel.class);//
//在ServerChannelInitializer中初始化ChannelPipeline责任链,并添加到serverBootstrap中
serverBootstrap.childHandler(new ServerChannelInitializer());
//标识当服务器请求处理线程全满时,用于临时存放已完成三次握手的请求的队列的最大长度
serverBootstrap.option(ChannelOption.SO_BACKLOG, 1024);
// 是否启用心跳保活机机制
serverBootstrap.childOption(ChannelOption.SO_KEEPALIVE, true);
//绑定端口后,开启监听
ChannelFuture channelFuture = serverBootstrap.bind(port).sync();
if(channelFuture.isSuccess()){
System.out.println("TCP服务启动 成功---------------");
}
}
/**
* 服务启动
*/
public synchronized void startServer() {
try {
this.init();
}catch(Exception ex) {
}
}
/**
* 服务关闭
*/
public synchronized void stopServer() {
if (!this.isRunning) {
throw new IllegalStateException(this.getName() + " 未启动 .");
}
this.isRunning = false;
try {
Future<?> future = this.workerGroup.shutdownGracefully().await();
if (!future.isSuccess()) {
log.error("workerGroup 无法正常停止:{}", future.cause());
}
future = this.bossGroup.shutdownGracefully().await();
if (!future.isSuccess()) {
log.error("bossGroup 无法正常停止:{}", future.cause());
}
} catch (InterruptedException e) {
e.printStackTrace();
}
this.log.info("TCP服务已经停止...");
}
private String getName() {
return "TCP-Server";
}
}
上面的代码中主要使用到的ServerBootstrap类的方法有以下这些:
group :设置SeverBootstrap要用到的EventLoopGroup,也就是定义netty服务的线程模型,处理Acceptor链接的主"线程池"以及用于I/O工作的从"线程池";
channel:设置将要被实例化的SeverChannel类;
option :指定要应用到新创建SeverChannel的ChannelConfig的ChannelOption.其实也就是服务本身的一些配置;
chidOption:子channel的ChannelConfig的ChannelOption。也就是与客户端建立的连接的一些配置;
childHandler:设置将被添加到已被接收的子Channel的ChannelPipeline中的ChannelHandler,其实就是让你在里面定义处理连接收发数据,需要哪些ChannelHandler按什么顺序去处理;
第二步接下来我们实现ServerChannelInitializer类,这个类继承实现自netty的ChannelInitializer抽象类,这个类的作用就是对channel(连接)的ChannelPipeline进行初始化工作,说白了就是你要把处理数据的方法添加到这个任务链中去,netty才知道每一步拿着socket连接和数据去做什么。
@ChannelHandler.Sharable
public class ServerChannelInitializer extends ChannelInitializer<SocketChannel> {
static final EventExecutorGroup group = new DefaultEventExecutorGroup(2);
public ServerChannelInitializer() throws InterruptedException {
}
@Override
protected void initChannel(SocketChannel socketChannel) throws Exception {
ChannelPipeline pipeline = socketChannel.pipeline();
//IdleStateHandler心跳机制,如果超时触发Handle中userEventTrigger()方法
pipeline.addLast("idleStateHandler",
new IdleStateHandler(15, 0, 0, TimeUnit.MINUTES));
// netty基于分割符的自带解码器,根据提供的分隔符解析报文,这里是0x7e;1024表示单条消息的最大长度,解码器在查找分隔符的时候,达到该长度还没找到的话会抛异常
// pipeline.addLast(
// new DelimiterBasedFrameDecoder(1024, Unpooled.copiedBuffer(new byte[] { 0x7e }),
// Unpooled.copiedBuffer(new byte[] { 0x7e })));
//自定义编解码器
pipeline.addLast(
new MessagePacketDecoder(),
new MessagePacketEncoder()
);
//自定义Hadler
pipeline.addLast("handler",new TCPServerHandler());
//自定义Hander,可用于处理耗时操作,不阻塞IO处理线程
pipeline.addLast(group,"BussinessHandler",new BussinessHandler());
}
}
这里我们注意下
pipeline.addLast(group,"BussinessHandler",new BussinessHandler());
在这里我们可以把一些比较耗时的操作(如存储、入库)等操作放在BussinessHandler中进行,因为我们为它单独分配了EventExecutorGroup 线程池执行,所以说即使这里发生阻塞,也不会影响TCPServerHandler中数据的接收。
最后就是各个部分的具体实现
解码器的实现:
public class MessagePacketDecoder extends ByteToMessageDecoder
{
public MessagePacketDecoder() throws Exception
{
}
@Override
protected void decode(ChannelHandlerContext ctx, ByteBuf buffer, List<Object> out) throws Exception
{
try {
if (buffer.readableBytes() > 0) {
// 待处理的消息包
byte[] bytesReady = new byte[buffer.readableBytes()];
buffer.readBytes(bytesReady);
//这之间可以进行报文的解析处理
out.add(bytesReady );
}
}finally {
}
}
}
编码器的实现
public class MessagePacketEncoder extends MessageToByteEncoder<Object>
{
public MessagePacketEncoder()
{
}
@Override
protected void encode(ChannelHandlerContext ctx, Object msg, ByteBuf out) throws Exception
{
try {
//在这之前可以实现编码工作。
out.writeBytes((byte[])msg);
}finally {
}
}
}
TCPServerHandler的实现
public class TCPServerHandler extends ChannelInboundHandlerAdapter {
public TCPServerHandler() {
}
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
//拿到传过来的msg数据,开始处理
}
//检测到空闲连接,触发
@Override
public void userEventTriggered(ChannelHandlerContext ctx, Object evt) throws Exception {
//这里可做一些断开连接的处理
}
}
BussinessHandler的实���与TCPServerHandler基本类似,它可以处理一些相对比较耗时的操作,我们这里就不实现了。
通过以上的代码我们可以看到,一个基于netty的TCP服务的搭建基本就是三大块:
1、对引导服务器类ServerBootstrap的初始化;
2、对ChannelPipeline的定义,也就是把多个ChannelHandler组成一条任务链;
3、对 ChannelHandler的具体实现,其中可以有编解码器,可以有对收发数据的业务处理逻辑;
以上代码只是在基于netty框架搭建一个最基本的TCP服务,其中包含了一些netty基本的特性和功能,当然这只是netty运用的一个简单的介绍,如有不正确的地方还望指出与海涵。
Linux公社的RSS地址 : https://www.linuxidc.com/rssFeed.aspx
本文永久更新链接地址: https://www.linuxidc.com/Linux/2018-10/154817.htm
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 实践Substrate私有网络搭建
- Kafka从上手到实践-实践真知:搭建Zookeeper集群
- Kafka从上手到实践-实践真知:搭建单机Kafka
- (全栈学习实践)四、docker搭建redis主从实践
- (全栈学习实践)四、继续搭建集群
- webpack与SPA实践之开发环境搭建
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。