内容简介:title: 自定义log4j2发送日志到Kafka为了给公司的大数据平台提供各项目组的日志,而又使各项目组在改动上无感知。做了一番调研后才发现log4j2默认有支持将日志发送到kafka的功能,惊喜之下赶紧看了下log4j对其的实现源码!发现默认的实现是同步阻塞的,如果kafka服务一旦挂掉会阻塞正常服务的日志打印,为此本人在参考源码的基础上做了一些修改。log4j2对于log4j在性能上有着显著的提升,这点官方上已经有了明确的说明和测试,所以不多赘述。在为了更熟练的使用,还是有必要了解其内部的工作流程
title: 自定义log4j2发送日志到Kafka
tags: log4j2,kafka
为了给公司的大数据平台提供各项目组的日志,而又使各项目组在改动上无感知。做了一番调研后才发现log4j2默认有支持将日志发送到kafka的功能,惊喜之下赶紧看了下log4j对其的实现源码!发现默认的实现是同步阻塞的,如果kafka服务一旦挂掉会阻塞正常服务的日志打印,为此本人在参考源码的基础上做了一些修改。
log4j日志工作流程
log4j2对于log4j在性能上有着显著的提升,这点官方上已经有了明确的说明和测试,所以不多赘述。在为了更熟练的使用,还是有必要了解其内部的工作流程。这是 官网 log4j的一张类图
Applications using the Log4j 2 API will request a Logger with a specific name from the LogManager. The LogManager will locate the appropriate LoggerContext and then obtain the Logger from it. If the Logger must be created it will be associated with the LoggerConfig that contains either a) the same name as the Logger, b) the name of a parent package, or c) the root LoggerConfig. LoggerConfig objects are created from Logger declarations in the configuration. The LoggerConfig is associated with the Appenders that actually deliver the LogEvents.
官网已经解释他们之间的关系了,这里不再对每个类的功能和作用做具体介绍,今天的重点是 Appender
类,因为他将决定将日志输出至何方。
- Appender
The ability to selectively enable or disable logging requests based on their logger is only part of the picture. Log4j allows logging requests to print to multiple destinations. In log4j speak, an output destination is called an Appender. Currently, appenders exist for the console, files, remote socket servers, Apache Flume, JMS, remote UNIX Syslog daemons, and various database APIs. See the section on Appenders for more details on the various types available. More than one Appender can be attached to a Logger.
核心配置
上图是log4j2发送日志到kafka的核心类,其实最主要的 KafkaAppender
,其他的几个类是连接 kafka
服务的。
- KafkaAppender核心配置
@Plugin(name = "Kafka", category = "Core", elementType = "appender", printObject = true) public final class KafkaAppender extends AbstractAppender { /** * */ private static final long serialVersionUID = 1L; @PluginFactory public static KafkaAppender createAppender( @PluginElement("Layout") final Layout<? extends Serializable> layout, @PluginElement("Filter") final Filter filter, @Required(message = "No name provided for KafkaAppender") @PluginAttribute("name") final String name, @PluginAttribute(value = "ignoreExceptions", defaultBoolean = true) final boolean ignoreExceptions, @Required(message = "No topic provided for KafkaAppender") @PluginAttribute("topic") final String topic, @PluginElement("Properties") final Property[] properties) { final KafkaManager kafkaManager = new KafkaManager(name, topic, properties); return new KafkaAppender(name, layout, filter, ignoreExceptions, kafkaManager); } private final KafkaManager manager; private KafkaAppender(final String name, final Layout<? extends Serializable> layout, final Filter filter, final boolean ignoreExceptions, final KafkaManager manager) { super(name, filter, layout, ignoreExceptions); this.manager = manager; } @Override public void append(final LogEvent event) { if (event.getLoggerName().startsWith("org.apache.kafka")) { LOGGER.warn("Recursive logging from [{}] for appender [{}].", event.getLoggerName(), getName()); } else { try { if (getLayout() != null) { manager.send(getLayout().toByteArray(event)); } else { manager.send(event.getMessage().getFormattedMessage().getBytes(StandardCharsets.UTF_8)); } } catch (final Exception e) { LOGGER.error("Unable to write to Kafka [{}] for appender [{}].", manager.getName(), getName(), e); throw new AppenderLoggingException("Unable to write to Kafka in appender: " + e.getMessage(), e); } } } @Override public void start() { super.start(); manager.startup(); } @Override public void stop() { super.stop(); manager.release(); }
- log4j2.xml简单配置
<?xml version="1.0" encoding="UTF-8"?> ... <Appenders> <Kafka name="Kafka" topic="log-test"> <PatternLayout pattern="%date %message"/> <Property name="bootstrap.servers">localhost:9092</Property> </Kafka> </Appenders> <Loggers> <Root level="DEBUG"> <AppenderRef ref="Kafka"/> </Root> <Logger name="org.apache.kafka" level="INFO" /> <!-- avoid recursive logging --> </Loggers>
其中 @Plugin
的name属性对应的xml配置文件里面Kafka标签,当然这个也可以自定义。与此同时,也需要将 @Plugin
的name属性改为MyKafka。如下配置:
<MyKafka name="Kafka" topic="log-test">
自定义配置
有时候我们会用到的属性由于默认的 KafkaAppender
不一定支持,所以需要一定程度的改写。但是改写也比较方便,只需要从构造器的 Properties kafkaProps
属性中取值即可。为了满足项目要求,我这边定义了platform和serviceName两个属性。
通过 KafkaAppender
的源码可知,他发送消息采取的是同步阻塞的方式。经过测试,一旦kafka服务挂掉,那么将会影响项目服务正常的日志输出,而这不是我希望看到的,所以我对他做了一定的程度的修改。
feature::
-
kafka服务一直正常
这种情况属于最理想的情况,消息将源源不断的发送至kafka broker
-
kafka服务挂掉,过一段时间后恢复正常
当kafka服务在挂掉的那一刻,后续所有的消息将会输出至
ConcurrentLinkedQueue
队列里面去。同时该队列的消息也会不断的被消费,输出至本地文件。当心跳检测到kafka broker恢复正常了,本地文件的内容将会被读取,然后发送至kafka broker。需要注意的时候,此时会有大量消息被实例化为ProducerRecord
对象,堆内存的占用率非常高,所以我用线程阻塞了一下! - kafka服务一直挂
所有的消息都会被输出至本地文件。
源码点我
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 消息队列(七)RocketMQ消息发送
- 消息中间件RocketMQ消息发送
- TNW-发送模板消息
- 分布式事务:消息可靠发送
- 探秘Runtime - Runtime消息发送机制
- 解决事物提交与消息发送顺序问题
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Programming Collective Intelligence
Toby Segaran / O'Reilly Media / 2007-8-26 / USD 39.99
Want to tap the power behind search rankings, product recommendations, social bookmarking, and online matchmaking? This fascinating book demonstrates how you can build Web 2.0 applications to mine the......一起来看看 《Programming Collective Intelligence》 这本书的介绍吧!