Home Kafka vs RocketMQ
Post
Cancel

Kafka vs RocketMQ

基本概念

  1. RocketMQ 由 Producer, Brocker, Consumer 组成
    • Producer 负责生产消息
    • Consumer 负责消费消息
    • Broker 负责存储消息,每一个 Broker 对应一台服务器但可以存储多个 Topic 的消息,每个 Topic 的消息也分片存储在不同的 Broker 里。
  2. Topic 是逻辑概念,队列(Kafka 中叫分区)是物理概念。每个主题包含多个消息,每条消息只属于一个主题。一个 Producer 可以同时发送多种 Topic 的消息,而一个 Consumer 只能订阅一个 Topic 的消息。Tag 类似于子主题。

  3. MessageQueue用于存储消息的物理地址,每个Topic中的消息地址存储于多个MessageQueue,是消息的最小存储单元。

  4. 消费方式,Pull 拉取式消费,Consumer 需要主动拉取 Broker 中的消息;Push 推送式消费,Broker 一接收到消息马上发送给 Consumer,具有实时性。RocketMQ是基于 Pull 模式的长轮询策略实现消息消费的。即 Consumer 发送拉取请求到 Broker 端,如果 Broker 有数据则返回并继续发起长轮询,如果没有则 hold 请求(指的服务端暂时不回复结果,保存相关请求,不关闭请求连接),不立即返回,直到超时(默认5s)并继续发起长轮询。为什么需要设置超时?1. 无法避免服务器假死等情况以确保可用性;2. 可能修改监听的配置

消息队列的三大作用

  • 解耦
  • 异步
  • 削峰

模式

  • 点对点模式:基于队列,每条消息只能被一个消费者消费,RabbitMQ。
  • 发布/订阅模式:一条消息能被多个消费者消费,RocketMQ 和 Kafka。

消息发送方式

  • RocketMQ
    1. 同步发送(Sync)
    2. 异步发送(Async)
    3. 单向发送(One-way) 其中同步发送和异步发送需要 Broker 返回确认消息,而单向发送不需要。
  • Kafka
    1. 发后即忘(fire-and-forget)
    2. 同步(sync)
    3. 异步(async)

消息消费方式

  • Kafka:从用户角度分为手动提交和自动提交;从 Consumer 的角度分为同步提交和异步提交
    1. 自动提交偏移量
    2. 手动同步提交偏移量
    3. 手动异步提交偏移量
    4. 同步异步结合提交偏移量

区别

整体区别是 Kafka 的设计初衷是用于日志传输,而 RocketMQ 是用于解决各类应用可靠的消息传输,适用于业务需求。

存储形式

  • Kafka 采用partition,每个topic的每个partition对应一个文件。顺序写入,定时刷盘。但一旦单个broker的partition过多,则顺序写将退化为随机写,Page Cache脏页过多,频繁触发缺页中断,性能大幅下降。

  • RocketMQ 采用CommitLog + ConsumeQueue,物理存储文件是CommitLog,ConsumeQueue是消息的逻辑队列,类似数据库的索引文件,存储的是指向物理存储的地址。每个Topic下的每个MessageQueue都有一个对应的ConsumeQueue文件,单个broker所有topic在CommitLog中顺序写。每个CommitLog大小固定为1G。

生产消息:Producer 先向 CommitLog 顺序写,持久化后将数据 Dispatch 到 ConsumeQueue 中。 消费消息:Consumer 从 ConsumeQueue 中拉取数据,但拉取到数据是指向 CommitLog 的地址,此时是随机读,但又因为 PageCache 的存在,还是整体有序的。

Page Cache(页面缓存)从内存中划出一块区域缓存文件页,如果要访问外部磁盘上的文件页,首先将这些页面拷贝到内存中,再进行读写。

吞吐量

  • Kafka 单机吞吐量 TPS 可上百万,远高于 RocketMQ的 TPS 十万级。

数据可靠性

RocketMQ新增同步刷盘和同步复制机制,保证可靠性。而 Kafka 倾向于牺牲部分可靠性换取更高的性能(因为 Kafka 中的 producer 将信息堆起来一起发送,以减少网络IO,但是这个时候如果 producer 宕机了,会导致信息丢失的)。

  • Kafka 支持异步刷盘,异步复制。
  • RocketMq 支持异步刷盘和同步刷盘,同步复制和异步复制。

异步刷盘:返回写成功状态时,消息可能只是被写进内存,吞吐量大,当内存大消息积累到一定程度时,统一触发写磁盘操作,快速写入。

同步刷盘:返回写成功状态时,消息已经被写入磁盘。流程是消息写入内存后,立刻通知刷盘线程刷盘,等待刷盘完成后再唤醒等待的线程返回消息写成功的状态。

异步复制:只要写就返回写成功状态。较低的延迟和较高的吞吐量。

同步复制:写成功后返回写成功状态。容易恢复故障的数据。

如何保证消息不丢失

两者类似,都是从 Producer -> Broker -> Consumer 三个阶段逐一判断,只不过设置的参数不同。

  • Producer: 同步发送消息;超时重试发送;消息补偿机制(Kafka,超时仍失败的情况下,会继续投递到本地消息表,定时轮询并推送到Kafka);ACKs(Kafka中,该参数表示多少个副本收到消息,认为消息写入成功)

  • Broker: 同步刷盘;设置主从模式,配置副本

  • Consumer: At least Once 的消费机制;消费重试;手动提交偏移量(Kafka)

零拷贝

传统的数据传输过程通常需要经历多次内存拷贝。

首先,从磁盘读取数据,然后将数据从内核空间拷贝到用户空间,再从用户空间拷贝到应用程序的内存中。这些额外的拷贝会消耗大量的CPU资源和内存带宽,降低数据传输的效率。零拷贝就是为了避免这些不必要的数据拷贝,能够将数据直接传输到目标内存区域,以提高数据传输的效率。

实现方式

  1. mmap(Memory Mapped Files) + write,作用:将磁盘文件映射到内存, 用户通过修改内存就能修改磁盘文件。Java NIO里对应的是MappedByteBuffer类,可以用来实现内存映射。它的底层是调用了Linux内核的mmap的API。
  2. sendfile,实现:将读到内核空间的数据,直接拷贝到socket buffer,进行网络发送。避免了数据在内核和用户空间之间的额外拷贝。FileChannel的transferTo()/transferFrom(),底层就是sendfile() 系统调用函数。

零拷贝技术减少了用户进程地址空间和内核地址空间之间由于上下文切换而带来的开销。DMA (Direct Memory Access) 是零拷贝技术的基石。并不是不需要拷贝,而是减少冗余不必要的拷贝。

  • Kafka: Producer生产的数据持久化到 broker 采用 mmap 文件映射(在读写稀疏索引文件用到),实现顺序的快速写入;而 Customer 从 broker 读取数据采用 sendfile 进行网络发送。
  • RocketMQ:采用 mmap 的方法。正因为使用内存映射机制,RocketMQ的文件存储都使用定长结构来存储,方便一次将整个文件映射至内存。

为什么 Kafka 这么快?

答:六个要点,顺序读写、零拷贝、消息压缩、分批读写/发送、基于操作系统内存PageCache的读写、分区分段 + 索引。

为什么 RocketMQ 这么快?

答:顺序写,零拷贝,异步刷盘(先写入操作系统的PageCache再异步刷盘到磁盘)

消息失败重试

  • Kafka 不支持重试。
  • RocketMQ 支持定时重试,每次重试间隔逐渐增加。

RocketMQ 的消费重试是基于延迟消息实现的,在消息消费失败的情况下,重新当作延迟消息投递到 Broker 中,并且延迟等级逐渐增加,消息重试会有 16 个级别,恰好是延迟消息的 18 个级别的后 16 个级别。

Rocket延迟消息

主要分为以下几步,类似于流转:

  1. 修改消息的Topic名称和队列信息(因为发送到普通的Topic会马上被消费)
  2. 转发消息到延迟Topic为SCHDULE_TOPIC_XXX的ConsumeQueue中
  3. 延迟服务(本质是Java自带的延迟队列)消费SCHDULE_TOPIC_XXX的消息
  4. 将信息重新存储到CommitLog中
  5. 将消息投递到目标Topic中
  6. 消费Topic的消息

Kafka 延迟消息

基于 时间轮 算法(类似于钟表):存储定时任务的环形队列,底层采用数组实现,数组中的每个元素可以存放一个定时任务列表。每隔一个时间跨度,下标移动一次。

事务

  • Kafka 支持事务(更像是原子性),可以实现对多个 Topic 、多个 Partition 的原子性的写入,即处于同一个事务内的所有消息,最终结果是要么全部写成功,要么全部写失败。这种事务机制单独使用的场景不多,更多的是配合其幂等机制来实现 Exactly Once 语义的。通常用于解决从一个 Kafka 数据源消费进行计算等操作,再输入到另一个 Kafka 数据源中的场景。
  • RocketMQ 支持事务,采用二阶段提交+broker定时回查。但也只能保证生产者与broker的一致性,broker与消费者之间只能单向重试。即保证的是最终一致性。

Kafka 事务

RocketMQ 事务

对于一个大事务来说,可以划分成多个小事务异步执行。

本质是两阶段协议 + 补偿机制(事务回查)实现的。

  • 二阶段:第一阶段发送 prepared 消息,接着执行本地事务,第二阶段发送 commit 或 rollback 的消息。
  • 定时回查:定时遍历 commitlog 中的半事务消息

如果事务正常执行,则 commit 该消息,如果抛出异常,则 rollback。对于消费消息失败,RocketMQ 会尝试重新消费,直到被加入死信队列中为止。在重试的过程中有可能产生重复的消息,所以对于消费端来说要确保消费幂等

消息堆积

原因可能是以下三种:

  1. 生产远超预期
  2. 消息接收和持久化出现故障
  3. 消费能力下降
  4. 程序问题

处理堆积的消息:建立临时的 topic(扩容),转发堆积的消息

服务发现

  • Kafka 使用 ZooKeeper,但新版本使用内嵌的KRaft替代了ZooKeeper
  • RocketMQ 使用自己实现的 nameserver

Topic 数量对吞吐量的影响

RocketMQ:topic 可以达到几百/几千的级别,吞吐量会有较小幅度的下降,这是 RocketMQ 的一大优势,在同等机器下,可以支撑大量的 topic

Kafka:topic 从几十到几百个时候,吞吐量会大幅度下降。原理:Kafka 利用操作系统的 PageCache 先将消息持久化到内存中,并不是直接写入磁盘。Topic 增加,也就是 Partition 数量会增加,使用的 PageCache 也会大量增加,大量增加后需要使用 LRU 淘汰算法对 Page 内容刷新到磁盘中,导致性能会下降。

消息顺序性

分为两步:生产者有序存储,消费者有序消费。

Kafka 如何保证消息的顺序性

针对消息有序的业务需求,还分为全局有序和局部有序。已知,每个partition的消费是顺序性的,但每个topic可以有若干个partition。

全局有序:一个Topic下的所有消息都需要按照生产顺序消费。

解决方法:1个Topic只能对应1个Partition。

局部有序:一个Topic下的消息,只需要满足同一业务字段的要按照生产顺序消费。例如:Topic消息是订单的流水表,包含订单orderId,业务要求同一个orderId的消息需要按照生产顺序进行消费。

解决方法:要满足局部有序,只需要在发消息的时候指定Partition Key,Partition Key相同的消息会放在同一个Partition。

RocketMQ 如何保证消息的顺序性

全局有序:对于指定的一个 Topic,设置读写队列的数量为一。(与Kafka设置一个partition类似) 局部有序:对于指定的一个 Topic,生产者根据 hashKey 将消息发送到同一个MessageQueue。 同一个分区内的消息按照严格的 FIFO 顺序进行发布和消费。

实现消息有序性从三个方面:

  1. 生产者生产顺序消息:生产者将消息路由到特定分区,单线程发送消息
  2. Broker 保存顺序消息:保证生产者顺序生产即可,保存到指定的Partition或MessageQueue中
  3. 消费者顺序消费消息:设置 consumeMode 为 ORDERLY,单线程消费消息

Kafka 负载策略

主写主读,不支持读写分离

Producer 负载均衡

当 key 不存在时,会从当前存活的分区中轮询;当 key 存在时,发送给哈希后的指定分区。

Consumer 负载均衡

Kafka 中主题订阅者的基本单位是消费者组,每个分区只能由消费者组中的一个消费者进行消费,多个消费者组之间对于分区的消费互不影响。共有三个分区分配器

  1. RangeAssignor(默认)
  2. RoundRobinAssignor
  3. StickyAssignor

RocketMQ 负载策略

Producer 负载均衡

Producer 默认采用轮询的方法,按顺序将消息发送到 MessageQueue 里。

Consumer 负载均衡

  1. 平均负载策略(默认):AllocateMessageQueueAveragely

  1. 循环分配策略:循环顺序遍历消费者:AllocateMessageQueueAveragelyByCircle

  1. 指定机房分配策略:AllocateMessageQueueByMachineRoom

  1. 机房就近分配策略:AllocateMachineRoomNearby

  1. 一致性哈希算法策略:AllocateMessageQueueConsistentHash

  1. 按照指定配置的策略:AllocateMessageQueueByConfig

适用场景

Kafka:适用于日志收集与分析、实时流处理、大数据集成(例如 Apache Storm 或 Flink)、用户行为追踪等场景。 RocketMQ:更适合金融交易、订单处理、秒杀活动、库存同步、跨系统间的服务解耦和异步调用等场景,尤其是那些对消息顺序、事务完整性和实时性要求极高的业务。

消费者

消费者群组(Consumer Group)

消费者组是一组共享 group.id 的消费者实例,一个消费者组可以消费多个 Topic 的消息,组内的消费者只能订阅相同的 Topic 和相同的 Tag 且 Tag 顺序相同。详见订阅关系一致

消费方式(RocketMQ)

  1. 集群模式(默认):相同消费者群组的消费者平摊消息,便于负载均衡

  2. 广播模式:相同消费者群组的每个消费者接收全量的消息,适合并行处理的场景。在该模式下,消费者组的概念在消息划分方面并没有意义。

RocketMQ/Kafka 使用 Consumer Group 机制,实现了传统两大消息引擎。如果所有实例属于同一个Group,那么它实现的就是消息队列模型;如果所有实例分别属于不同的Group,且订阅了相同的主题,那么它就实现了发布/订阅模型;

消费者和消费者组的关系

  1. 同一个消费者组内部的消费者均匀消费订阅的 Topic 的消息,负载均衡
  2. 不同消费者组全量消费订阅的 Topic 的消息,类似消费者组层面的广播模式。但 Kafka 和 RocketMQ 不同的地方在于,Kafka 所有 Partition 会均匀分配给 Consumer 消费(因此 Consumer 只消费 Topic 的部分数据),而不像 RocketMQ 那样,每个 Consumer 全量消费 Topic 里的消息。

Kafka 知识点

知识点

  1. Partition 数量只能增加,不能减少。
  2. 偏移量:指Kafka主题中每个分区中消息的唯一标识符
  3. ISR: In-Sync Replica; OSR: Out-Sync Replica

索引机制

基于跳表实现

一个Topic分为多个Partition,一个Partition分为多个Segment。每个Segment对应三个文件:偏移量索引文件、时间戳索引文件、消息存储文件

根据偏移量/时间戳查找消息

偏移量文件中记录的是稀疏索引

偏移量 offset = x

  1. 根据偏移量索引文件名和 offset 的值,进行二分查找,找到小于 x 的最大 offset 文件
  2. 在该偏移量索引文件(.index)中,找到该 offset 对应的 position 位置
  3. 在消息存储文件(.log)中,找到该 position 所对应的消息内容

时间戳 timestamp = t

  1. 在时间戳索引文件(.timeindex)中,找到比 t 大的最小时间戳,与其所对应的 offset 值
  2. 在偏移量索引文件(.index)中,找到该 offset 值对应的 position 位置
  3. 在消息存储文件(.log)中,找到该 position 所对应的消息内容

Producer 生产消息的流程

在消息发送的过程中,涉及到两个线程,main线程和sender线程,其中main线程是消息的生产线程,而sender线程是jvm单例的线程,专门用于消息的发送。在jvm的内存中开辟了一块缓存空间叫RecordAccumulator(消息累加器),用于将多条消息合并成一个批次,然后由sender线程发送给kafka集群。

  1. 创建消息以及指定 Topic 调用 Send() 方法
  2. 调用拦截器
  3. 调用序列化器,将消息序列化
  4. 使用分区器(三种分区策略)指定 Partition
    1. DefaultPartitioner 默认分区:指定分区则用该分区,没指定则使用对 key 哈希后值的分区,没有 key 则使用粘性分区策略
    2. UniformStickyPartitioner 统一粘性分区:直接使用粘性分区策略,即逐个填满 Batch 里的消息
    3. RoundRobinPartitioner 轮询分区:指定分区则用该分区,否则平均分配
  5. 将消息缓存到消息累加器中
  6. 压缩和批处理消息
  7. 找到相应的 Broker 并发送消息(Sender 线程触发的),可以同步发送也可以异步发送
  8. 确认(ACK)和重试
  9. 更新偏移量
  10. 错误处理,将重试仍失败的消息放入死信队列里

Consumer 消费过程

Kafka 采用 Pull 的方式,每个 Consumer 维护一个 HW 水位信息

消费者线程模型

Thread per consumer model:即每个线程都有自己的consumer实例,然后在一个线程里面完成数据的获取(pull)、处理(process)、offset提交。

Leader Replica 选举策略

  1. ISR 选举策略:在 ISR 副本集合中选举
  2. 首选副本选举策略:每个分区都有一个首选副本,通常是副本集合中的第一个副本
  3. 不干净副本选举策略:从所有副本中(包含 OSR 集合)选择一个副本选举

Zookeeper 在 Kafka 的作用

  1. Broker 注册:每个Broker服务器在启动时,都会到ZooKeeper上进行注册
  2. Topic 注册:同一个 Topic 的消息会被分成多个分区并将其分布在多个 Broker 上,ZK 负责维护这些分区信息及与 Broker 的对应关系
  3. 负载均衡:Consumer 消费消息时,ZK 会根据当前 Partition 数量和 Consumer 数量进行动态负载均衡

消息压缩/解压

Producer 发送压缩消息到 Broker 后,Broker 会保存压缩数据,由Consumer 解压数据。

Controller

Controller 用于在 ZK 的帮助下管理和协调整个 Kafka 集群。集群内任意一台 Broker 都能充当 Controller 的角色,但在运行过程中,只有一个 Controller。

Controller 职责

  1. 管理 Topic
  2. Preferred Leader 选举
  3. 集群 Broker 管理
  4. 数据服务,保存最完整的元数据信息

手动/自动提交偏移量区别

发生 Rebalance 时,自动提交偏移量有可能出现消息丢失/消息重复消费的问题,而手动提交偏移量则不会

  1. 消息丢失:提交的偏移量大于消费者处理的最后一个消息的偏移量
  2. 消费重复消费:提交的偏移量小于消费者处理的最后一个信息的偏移量

Rebalance 触发时机

总体来说是消费者和partition的对应关系发生了变化

  1. 消费者组内的消费者数量发生了变化
  2. 消费者组内的主题分区数发生了变化
  3. 消费者组订阅的主题发生了变化
This post is licensed under CC BY 4.0 by the author.

SpringBoot

Note from Work