内容简介:安装kafka需要依赖zookeeper的,所以安装kafka的时候也会包含zooker
Kafka的安装与启动
kafka中涉及的名词
- 消息记录:由一个key,一个value和一个时间戳构成,消息最终存储在主题下的分区中,记录在生产中称为生产者记录,在消费者中称为消费记录。Kafka集群保持了所有发布的消息,直到它们过期,无论消息是否被消费了,在一个可配置的时间段内,Kafka集群保留了所有发布的消息。比如消息的保存策略被设置为2天,那么在一个消息被发布的两天时间内,它都是可以被消费的。Kafka的性能是和数据量无关的常量级的,所以保留太多数据并不是问题
- 生成者:生产者用于发布消息
- 消费者:消费者用于订阅消息
- 消费者组:相同的groupID的消费者将视为同一个消费者组,每个消费者都需要设置一个组id,每条消息只能被consumer group中的一个Consumer消费,但是可以被多个consumer group消费
- 主题(topic):消息的一种逻辑分组,用于对消息分门别类,每一类消息称之为一个主题,相同主题的消息放在一个队列中
- 分区(partition):消息的一种物理分组,一个主题被拆成多个分区,每一个分区就是一个顺序的,不可变的消息队列,并且可以持续添加,分区中的每个消息都被分配了一个唯一的id,称之为偏移量(offset),在每个分区中偏移量都是唯一的。每个分区对应一个逻辑log,有多个segment组成
- 偏移量:分区中每个消息都有一个唯一的Id,称之为偏移量,代表已经消费的位置
- 代理(broker):一台kafka服务器称之为一个broker
- 副本(replica):副本只是一个分区(partition)的备份。副本不读取或写入数据。它们用于防止数据丢失
- 领导者:leader是负责给定分区的所有读取和写入的节点
- 追随者:跟随领导者指令的节点被称为Follower。
- zookeeper:Kafka代理是无状态的,所以它们使用Zookeeper来维护它们的集群状态。Zookeeper用于管理和协调Kafka代理
kafka功能
- 发布订阅:生产者生产消息(数据流),将消息发送给kafka指定的主题队列中,也可以发送到topic中的指定分区中,消费者从kafka的指定队列中获取消息,然后来处理消息
一. Mac版安装
brew install kafka
安装kafka需要依赖zookeeper的,所以安装kafka的时候也会包含zooker
- kafka的安装目录:/usr/local/Cellar/kafka
- kafka的配置文件目录:/usr/local/etc/kafka
- kafka服务的配置文件:/usr/local/etc/kafka/server.properties
- zookeeper配置文件:/usr/local/etc/kafka/zookeeper.properties
server.properties中重要配置
- broker.id=0
- listeners=PLAINTEXT://:9092
- advertised.listeners=PLAINTEXT://127.0.0.1:9092
- log.dirs=/usr/local/var/lib/kafka-logs
zookeeper.properties重要配置
- dataDir=/usr/local/var/lib/zookeeper
- clientPort=2181
- maxClientCnxns=0
二. 启动zookeeper
新创建终端启动zookeeper
- cd /usr/local/Cellar/kafka/2.1.0
- ./bin/zookeeper-server-start /usr/local/etc/kafka/zookeeper.properties
- 打印台显示:INFO Reading configuration from: /usr/local/etc/kafka/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
- ...即是启动成功
三.启动kafka
新创建终端启动kafka(启动kafka之前必须先启动zookeeper)
- cd /usr/local/Cellar/kafka/2.1.0
- ./bin/kafka-server-start /usr/local/etc/kafka/server.properties
- 打印台显示:INFO Registered kafka:type=kafka.Log4jController MBean (kafka.utils.Log4jControllerRegistration$)
- ...即启动成功
- 启动了kafka之后,zookeeper端会报一些 Error:KeeperErrorCode = NoNode for /config/topics/test 之类的错误,这个是没有问题的,这是因为kafka向zookeeper发送了关于该路径的一些请求信息,但是不存在,所以这是没有问题的
四.创建topic
新创建终端
- cd /usr/local/Cellar/kafka/2.1.0
- 创建一个名为“test”的主题:./bin/kafka-topics --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
- 查看所有的topic:./bin/kafka-topics --list --zookeeper localhost:2181
- 查看某个topic的信息,比如test:./bin/kafka-topics --describe --zookeeper localhost:2181 --topic test
五.发送消息
新创建一个终端,作为生产者,用于发送消息,每一行就是一条信息,将消息发送到kafka服务器
- cd /usr/local/Cellar/kafka/2.1.0
- ./bin/kafka-console-producer --broker-list localhost:9092 --topic test
- send one message
- send two message
六.消费消息(接受消息)
新创建一个终端作为消费者,接受消息
- cd /usr/local/Cellar/kafka/2.1.0
- ./bin/kafka-console-consumer --bootstrap-server localhost:9092 --topic test --from-beginning
- send one message
- send two message(这些便是从生产者获得的消息)
注意:发送消息与接受消息必须启动kafka与zookeeper
GoLang实现kafka的信息发布与订阅
生产者
import (
"fmt"
"github.com/Shopify/sarama"
)
func main() {
config := sarama.NewConfig()
// 等待服务器所有副本都保存成功后的响应
config.Producer.RequiredAcks = sarama.WaitForAll
// 随机的分区类型:返回一个分区器,该分区器每次选择一个随机分区
config.Producer.Partitioner = sarama.NewRandomPartitioner
// 是否等待成功和失败后的响应
config.Producer.Return.Successes = true
// 使用给定代理地址和配置创建一个同步生产者
producer, err := sarama.NewSyncProducer([]string{"localhost:9092"}, config)
if err != nil {
panic(err)
}
defer producer.Close()
//构建发送的消息,
msg := &sarama.ProducerMessage {
//Topic: "test",//包含了消息的主题
Partition: int32(10),//
Key: sarama.StringEncoder("key"),//
}
var value string
var msgType string
for {
_, err := fmt.Scanf("%s", &value)
if err != nil {
break
}
fmt.Scanf("%s",&msgType)
fmt.Println("msgType = ",msgType,",value = ",value)
msg.Topic = msgType
//将字符串转换为字节数组
msg.Value = sarama.ByteEncoder(value)
//fmt.Println(value)
//SendMessage:该方法是生产者生产给定的消息
//生产成功的时候返回该消息的分区和所在的偏移量
//生产失败的时候返回error
partition, offset, err := producer.SendMessage(msg)
if err != nil {
fmt.Println("Send message Fail")
}
fmt.Printf("Partition = %d, offset=%d\n", partition, offset)
}
}
消费者
import (
"fmt"
"github.com/Shopify/sarama"
"sync"
)
var (
wg sync.WaitGroup
)
func main() {
// 根据给定的代理地址和配置创建一个消费者
consumer, err := sarama.NewConsumer([]string{"localhost:9092"}, nil)
if err != nil {
panic(err)
}
//Partitions(topic):该方法返回了该topic的所有分区id
partitionList, err := consumer.Partitions("test")
if err != nil {
panic(err)
}
for partition := range partitionList {
//ConsumePartition方法根据主题,分区和给定的偏移量创建创建了相应的分区消费者
//如果该分区消费者已经消费了该信息将会返回error
//sarama.OffsetNewest:表明了为最新消息
pc, err := consumer.ConsumePartition("test", int32(partition), sarama.OffsetNewest)
if err != nil {
panic(err)
}
defer pc.AsyncClose()
wg.Add(1)
go func(sarama.PartitionConsumer) {
defer wg.Done()
//Messages()该方法返回一个消费消息类型的只读通道,由代理产生
for msg := range pc.Messages() {
fmt.Printf("%s---Partition:%d, Offset:%d, Key:%s, Value:%s\n", msg.Topic,msg.Partition, msg.Offset, string(msg.Key), string(msg.Value))
}
}(pc)
}
wg.Wait()
consumer.Close()
}
kafka使用场景
-
kafka的应用很广泛,在这里简单介绍几种
-
服务解耦
比如我们发了一个帖子,除了写入数据库之外还有很多联动操作,比如给关注这个用户的人发送通知,推送到首页的时间线列表,如果用代码实现的话,发帖服务就要调用通知服务,时间线服务,这样的耦合很大,并且如果增加一个功能依赖发帖,除了要增加新功能外还要修改发帖代码。
解决方法:引入kafka,将发完贴的消息放入kafka消息队列中,对这个主题感兴趣的功能就自己去消费这个消息,那么发帖功能就能够完全独立。同时即使发帖进程挂了,其他功能还能够使用,这样可以将bug隔离在最小范围内
-
流量削峰
流量削峰在消息队列中也是常用场景,一般在秒杀或团购活动中使用比较广泛。当流量太大的时候达到服务器瓶颈的时候可以将事件放在kafka中,下游服务器当接收到消息的时候自己去消费,有效防止服务器被挤垮
- 消息通讯
消息队列一般都内置了高效的通信机制,因此也可以用在纯的消息通讯中,比如客户端A跟客户端B都使用同一队列进行消息通讯,客户端A,客户端B,客户端N都订阅了同一个主题进行消息发布和接受不了实现类似聊天室效果
-
以上所述就是小编给大家介绍的《Golang,kafka实现消息推拉》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 常见推拉流客户端软件的使用方式
- 码云之 SVN 增加 SSH 支持,SVN 免密推拉代码
- 消息队列面试连环问:如何保证消息不丢失?处理重复消息?消息有序性?消息堆积处理?
- 消息队列(三)常见消息队列介绍
- 消息队列(七)RocketMQ消息发送
- 消息队列探秘 – RabbitMQ 消息队列介绍
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Masterminds of Programming
Federico Biancuzzi、Chromatic / O'Reilly Media / 2009-03-27 / USD 39.99
Description Masterminds of Programming features exclusive interviews with the creators of several historic and highly influential programming languages. Think along with Adin D. Falkoff (APL), Jame......一起来看看 《Masterminds of Programming》 这本书的介绍吧!