RocketMQ - 常见问题

RocketMQ常见问题

文章目录

  • RocketMQ常见问题
    • 一:消息幂等问题
      • 1:什么是消费幂等
      • 2:消息重复的场景分析
        • 2.1:发送时消息重复
        • 2.2:消费时消息重复
        • 2.3:Rebalance时消息重复
      • 3:通用解决方案
        • 3.1:两要素(幂等令牌 & 唯一性处理)
        • 3.2:通用解决方案
        • 3.3:解决方案举例
        • 3.4:消息幂等的实现
    • 二:消息堆积问题
      • 1:产生原因分析
        • 1.1:消息拉取
        • 1.2:消息消费
      • 2:消费耗时
      • 3:消费并发度
      • 4:单机线程的计算
      • 5:如何避免消息堆积和消费延迟
        • 5.1:梳理消息的消费耗时
        • 5.2:设置消费并发度
    • 三:消息清理问题
    • 四:消息过滤问题
      • 1:Tag方式过滤-简单
      • 2:SQL过滤-功能强大
      • 3:代码举例
        • 3.1:Tag方式进行过滤例子
        • 3.2:SQL方式进行过滤例子
    • 五:消息重试问题
      • 1:消息发送的重试机制
        • 1.1:同步发送失败策略
        • 1.2:异步发送失败策略
        • 1.3:消息刷盘失败策略
      • 2:消费重试
        • 2.1:顺序消息的消费重试
        • 2.2:无序消息的消费重试
        • 2.3:消息重试次数和间隔
        • 2.4:重试队列
        • 2.5:消息重试/不重试配置方式
          • 2.5.1:重试配置
          • 2.5.2:不重试配置
        • 2.6:死信队列
          • 2.6.1:死信队列特征
          • 2.6.2:查询死信消息
          • 2.6.3:死信队列处理
    • 六:如何保证消息不丢失
      • 1:Producer如何保证消息不丢失
      • 2:事务消息保证消息不丢失
      • 3:broker保证消息不丢失
      • 4:Broker主从同步如何保证不丢失
      • 5:Consumer如何保证消费不丢失
      • 6:如果MQ服务全挂了,如何保证不丢失

一:消息幂等问题

1:什么是消费幂等

重复消费的结果与消费一次的结果是相同的,并且多次消费并未对业务系统产生任何负面影响,那么这个消费过程就是消费幂等的。

幂等:若某操作执行多次与执行一次对系统产生的影响是相同的,则称该操作是幂等的。

在互联网应用中,尤其在网络不稳定的情况下,消息很有可能会出现重复发送或重复消费。

如果重复的消息可能会影响业务处理,那么就应该对消息做幂等处理。

2:消息重复的场景分析

什么情况下可能会出现消息被重复消费呢?最常见的有以下三种情况:

2.1:发送时消息重复

当一条消息已被成功发送到Broker并完成持久化,此时出现了网络闪断,从而导致Broker对Producer应答失败。

如果此时Producer意识到消息发送失败并尝试再次发送消息,此时Broker中就可能会出现两条内容相同并且Message ID也相同的消息,那么后续Consumer就一定会消费两次该消息。

2.2:消费时消息重复

消息已投递到Consumer并完成业务处理,当Consumer给Broker反馈应答时网络闪断,Broker没有接收到消费成功响应。

为了保证消息至少被消费一次的原则,Broker将在网络恢复后再次尝试投递之前已被处理过的消息。

此时消费者就会收到与之前处理过的内容相同、Message ID也相同的消息。

2.3:Rebalance时消息重复

当Consumer Group中的Consumer数量发生变化时,或其订阅的Topic的Queue数量发生变化时,会触发Rebalance

此时Consumer可能会收到曾经被消费过的消息。

3:通用解决方案

重复消费没有办法剔除,但是要保证重复的消费幂等 <- 所以解决方案都是围绕保证幂等性的

3.1:两要素(幂等令牌 & 唯一性处理)

幂等解决方案的设计中涉及到两项要素:幂等令牌 & 唯一性处理。只要充分利用好这两要素,就可以设计出好的幂等解决方案。

  • 幂等令牌:是生产者和消费者两者中的既定协议,通常指具备唯一业务标识的字符串。
    • 例如,订单号、流水号。一般由Producer随着消息一同发送来的。
  • 唯一性处理:服务端通过采用一定的算法策略,保证同一个业务逻辑不会被重复执行成功多次。
    • 例如,对同一笔订单的多次支付操作,只会成功一次。
3.2:通用解决方案

对于常见的系统,幂等性操作的通用性解决方案是:

  • 首先通过缓存去重。在缓存中如果已经存在了某幂等令牌,则说明本次操作是重复性操作;若缓存没有命中,则进入下一步
  • 在唯一性处理之前,先在数据库中查询幂等令牌作为索引的数据是否存在。若存在,则说明本次操作为重复性操作;若不存在,则进入下一步。
  • 在同一事务中完成三项操作:唯一性处理后,将幂等令牌写入到缓存,并将幂等令牌作为唯一索引的数据写入到DB中。

在这里插入图片描述

第 1 步已经判断过是否是重复性操作了,为什么第 2 步还要再次判断?

一般缓存中的数据是具有有效期的。缓存中数据的有效期一旦过期,就是发生缓存穿透,使请求直接就到达了DBMS。

3.3:解决方案举例

以支付场景为例:

  • 当支付请求到达后,首先在Redis缓存中却获取key为支付流水号的缓存value
    • 若value不空,则说明本次支付是重复操作,业务系统直接返回调用侧重复支付标识;
    • 若value为空,则进入下一步操作
  • 到DBMS中根据支付流水号查询是否存在相应实例
    • 若存在,则说明本次支付是重复操作,业务系统直接返回调用侧重复支付标识;
    • 若不存在,则说明本次操作是首次操作,进入下一步完成唯一性处理
  • 在分布式事务中完成三项操作:
    • 完成支付任务
    • 将当前支付流水号作为key,任意字符串作为value,通过set(key, value, expireTime)将数据写入到Redis缓存
    • 将当前支付流水号作为主键,与其它相关数据共同写入到DBMS
3.4:消息幂等的实现

消费幂等的解决方案很简单:为消息指定不会重复的唯一标识。因为Message ID有可能出现重复的情况,所以真正安全的幂等处理,不建议以Message ID作为处理依据。

最好的方式是以业务唯一标识作为幂等处理的关键依据,而业务的唯一标识可以通过消息Key设置。

以支付场景为例,可以将消息的Key设置为订单号,作为幂等处理的依据。具体代码示例如下:

Message message = new Message();
message.setKey("ORDERID_100");
SendResult sendResult = producer.send(message);

消费者收到消息时可以根据消息的Key即订单号来实现消费幂等:

consumer.registerMessageListener(new MessageListenerConcurrently() {@Overridepublic ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context ) {for(MessageExt msg : msgs) {String key = msg.getKeys();// 根据业务唯一标识Key做幂等处理// ......}return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;}
});

RocketMQ能够保证消息不丢失,但不能保证消息不重复

二:消息堆积问题

在这里插入图片描述
消息处理流程中,如果Consumer的消费速度跟不上Producer的发送速度,MQ中未处理的消息会越来越多,这部分消息就被称为堆积消息

消息出现堆积进而会造成消息的消费延迟。以下场景需要重点关注消息堆积和消费延迟问题:

  • 业务系统上下游能力不匹配造成的持续堆积,且无法自行恢复。
  • 业务系统对消息的消费实时性要求较高,即使是短暂的堆积造成的消费延迟也无法接受。

1:产生原因分析

在这里插入图片描述
Consumer使用长轮询Pull模式消费消息时,分为以下两个阶段:

1.1:消息拉取

consumer通过长轮询Pull模式批量拉取的方式从服务端获取消息,将拉取的消息缓存到本地缓冲队列中

对于拉取式消费,在内网环境下会有很高的吞吐量,所以这一阶段一般不会是消息堆积的瓶颈

一个单线程分区的低规格主机其可达到几万的TPS,如果是多个分区的多个线程,可以轻松达到几十万的TPS

1.2:消息消费

Consumer将本地缓存的消息提交到消费线程中,使用业务消费逻辑对消息进行处理,处理完毕后获取到一个结果。这是真正的消息消费过程。

此时Consumer的消费能力就完全依赖于消息的消费耗时消费并发度了。

如果由于业务处理逻辑复杂等原因,导致处理单条消息的耗时较长,则整体的消息吞吐量肯定不会高,此时就会导致Consumer本地缓冲队列达到上限,停止从服务端拉取消息。

所以,消息堆积的主要瓶颈在于客户端的消费能力,而消费能力由消费耗时消费并发度决定。

注意,消费耗时的优先级要高于消费并发度。即在保证了消费耗时的合理性前提下,再考虑消费并发度问题。

2:消费耗时

影响消息处理时长的主要因素是代码逻辑。而代码逻辑中可能会影响处理时长代码主要有两种类型:CPU内部计算型代码外部I/O操作型代码

通常情况下代码中如果没有复杂的递归和循环的话,内部计算耗时相对外部I/O操作来说几乎可以忽略。所以外部IO型代码是影响消息处理时长的主要症结所在。

外部IO操作型代码举例:

  • 读写外部数据库,例如对远程MySQL的访问
  • 读写外部缓存系统,例如对远程Redis的访问
  • 下游系统调用,例如Dubbo的RPC远程调用,Spring Cloud的对下游系统的Http接口调用

关于下游系统调用逻辑需要进行提前梳理,掌握每个调用操作预期的耗时,这样做是为了能够判断消费逻辑中IO操作的耗时是否合理。

通常消息堆积是由于下游系统出现了服务异常达到了DBMS容量限制,导致消费耗时增加。

服务异常,并不仅仅是系统中出现的类似 500 这样的代码错误,而可能是更加隐蔽的问题。例如,网络带宽问题。

达到了DBMS容量限制,其也会引发消息的消费耗时增加。

3:消费并发度

一般情况下,消费者端的消费并发度由单节点线程数和节点数量共同决定,其值为value = 单节点线程数*节点数量

通常需要优先调整单节点的线程数,若单机硬件资源达到了上限,则需要通过横向扩展来提高消费并发度。

单节点线程数,即单个Consumer所包含的线程数量

节点数量,即Consumer Group所包含的Consumer数量

对于普通消息、延时消息及事务消息,并发度计算都是单节点线程数*节点数量。但对于顺序消息则是不同的。

顺序消息的消费并发度等于Topic的Queue分区数量。

全局顺序消息:

  • 该类型消息的Topic只有一个Queue分区。其可以保证该Topic的所有消息被顺序消费。
  • 为了保证这个全局顺序性,Consumer Group中在同一时刻只能有一个Consumer的一个线程进行消费。所以其并发度为 1 。

分区顺序消息:

  • 该类型消息的Topic有多个Queue分区。其仅可以保证该Topic的每个Queue分区中的消息被顺序消费,不能保证整个Topic中消息的顺序消费。
  • 为了保证这个分区顺序性,每个Queue分区中的消息在Consumer Group中的同一时刻只能有一个Consumer的一个线程进行消费。
  • 在同一时刻最多会出现多个Queue分蘖有多个Consumer的多个线程并行消费。所以其并发度为Topic的分区数量。

4:单机线程的计算

对于一台主机中线程池中线程数的设置需要谨慎,不能盲目直接调大线程数,设置过大的线程数反而会带来大量的线程切换的开销。

理想环境下单节点的最优线程数计算模型为:C *(T1 + T2)/ T1。

  • C:CPU内核数
  • T1:CPU内部逻辑计算耗时
  • T2:外部IO操作耗时

最优线程数 = C *(T1 + T2)/ T1 = C * T1/T1 + C * T2/T1 = C + C * T2/T1

注意,该计算出的数值是理想状态下的理论数据,在生产环境中,不建议直接使用。而是根据当前环境,先设置一个比该值小的数值然后观察其压测效果,然后再根据效果逐步调大线程数,直至找到在该环境中性能最佳时的值。

5:如何避免消息堆积和消费延迟

为了避免在业务使用时出现非预期的消息堆积和消费延迟问题,需要在前期设计阶段对整个业务逻辑进行完善的排查和梳理。

其中最重要的就是梳理消息的消费耗时设置消息消费的并发度

5.1:梳理消息的消费耗时

通过压测获取消息的消费耗时,并对耗时较高的操作的代码逻辑进行分析。梳理消息的消费耗时需要关注以下信息:

  • 消息消费逻辑的计算复杂度是否过高,代码是否存在无限循环和递归等缺陷。
  • 消息消费逻辑中的I/O操作是否是必须的,能否用本地缓存等方案规避。
  • 消费逻辑中的复杂耗时的操作是否可以做异步化处理。如果可以,是否会造成逻辑错乱。
5.2:设置消费并发度

对于消息消费并发度的计算,可以通过以下两步实施:

  • 逐步调大单个Consumer节点的线程数,并观测节点的系统指标,得到单个节点最优的消费线程数和消息吞吐量。
  • 根据上下游链路的流量峰值计算出需要设置的节点数

节点数 = 流量峰值 / 单个节点消息吞吐量

三:消息清理问题

消息被消费过后会被清理掉吗?不会的。

消息是被顺序存储在commitlog文件的,且消息大小不定长,所以消息的清理是不可能以消息为单位进行清理的

消息是以commitlog文件为单位进行清理的。否则会急剧下降清理效率,并实现逻辑复杂。

commitlog文件存在一个过期时间,默认 72 小时

除了用户手动清理外,在以下情况下也会被自动清理,无论文件中的消息是否被消费过:

  • 文件过期,且到达清理时间点(默认为凌晨 4 点)后,自动清理过期文件
  • 文件过期,且磁盘空间占用率已达过期清理警戒线(默认75%)后,无论是否达到清理时间点,都会自动清理过期文件
  • 磁盘占用率达到清理警戒线(默认85%)后,开始按照设定好的规则清理文件,无论是否过期。默认会从最老的文件开始清理
  • 磁盘占用率达到系统危险警戒线(默认90%)后,Broker将拒绝消息写入

需要注意以下几点:

  • 对于RocketMQ系统来说,删除一个1G大小的文件,是一个压力巨大的IO操作。
    • 在删除过程中,系统性能会骤然下降。所以,其默认清理时间点为凌晨 4 点,访问量最小的时间。
    • 也正因如果,我们要保障磁盘空间的空闲率,不要使系统出现在其它时间点删除commitlog文件的情况。
  • 官方建议RocketMQ服务的Linux文件系统采用ext4。因为对于文件删除操作,ext4要比ext3性能更好

四:消息过滤问题

消息者在进行消息订阅时,除了可以指定要订阅消息的Topic外,还可以对指定Topic中的消息根据指定条件进行过滤,即可以订阅比Topic更加细粒度的消息类型。

对于指定Topic消息的过滤有两种过滤方式:Tag过滤与SQL过滤。

1:Tag方式过滤-简单

通过consumer的subscribe()方法指定要订阅消息的Tag。如果订阅多个Tag的消息,Tag间使用或运算符(双竖线||)连接。

DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("CID_EXAMPLE");
consumer.subscribe("TOPIC", "TAGA || TAGB || TAGC");

2:SQL过滤-功能强大

SQL过滤是一种通过特定表达式对事先埋入到消息中的用户属性进行筛选过滤的方式。

通过SQL过滤,可以实现对消息的复杂过滤。不过,只有使用PUSH模式的消费者才能使用SQL过滤。

SQL过滤表达式中支持多种常量类型与运算符。

支持的常量类型:

  • 数值:比如: 123 ,3.1415
  • 字符:必须用单引号包裹起来,比如:‘abc’
  • 布尔:TRUE 或 FALSE
  • NULL:特殊的常量,表示空

支持的运算符有:

  • 数值比较:>,>=,<,<=,BETWEEN,=
  • 字符比较:=,<>,IN
  • 逻辑运算 :AND,OR,NOT
  • NULL判断:IS NULL 或者 IS NOT NULL

默认情况下Broker没有开启消息的SQL过滤功能,需要在Broker加载的配置文件中添加如下属性,以开启该功能:

enablePropertyFilter = true

在启动Broker时需要指定这个修改过的配置文件。

例如对于单机Broker的启动,其修改的配置文件是conf/broker.conf,启动时使用如下命令:

sh bin/mqbroker -n localhost:9876 -c conf/broker.conf &

3:代码举例

3.1:Tag方式进行过滤例子

定义Tag过滤Producer

public class FilterByTagProducer {public static void main(String[] args) throws Exception {DefaultMQProducer producer = new DefaultMQProducer("pg");producer.setNamesrvAddr("rocketmqOS:9876");producer.start();String[] tags = {"myTagA","myTagB","myTagC"};for (int i = 0 ; i < 10 ; i++) {byte[] body = ("Hi," + i).getBytes();String tag = tags[i % tags.length];// 指定tagMessage msg = new Message("myTopic", tag, body);SendResult sendResult = producer.send(msg);System.out.println(sendResult);}producer.shutdown();}
}

定义Tag过滤Consumer

public class FilterByTagConsumer {public static void main(String[] args) throws Exception {DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("pg");consumer.setNamesrvAddr("rocketmqOS:9876"); // 设置NameServerconsumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);// 消费者订阅指定的tag, 多个tag用||分割consumer.subscribe("myTopic", "myTagA || myTagB"); // 订阅主题和tag,只有tagA或者tagB才进行消费// 定义异步并发监听,准备消费consumer.registerMessageListener(new MessageListenerConcurrently() {@Overridepublic ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,ConsumeConcurrentlyContext context) {for (MessageExt me:msgs){System.out.println(me);}return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;}});consumer.start();System.out.println("Consumer Started");}
}
3.2:SQL方式进行过滤例子

定义SQL过滤Producer

public class FilterBySQLProducer {public static void main(String[] args) throws Exception {DefaultMQProducer producer = new DefaultMQProducer("pg");producer.setNamesrvAddr("rocketmqOS:9876");producer.start();for (int i = 0 ; i < 10 ; i++) {try {byte[] body = ("Hi," + i).getBytes();Message msg = new Message("myTopic", "myTag", body);// 自己声明一个属性,并赋值,到时候sqmsg.putUserProperty("age", i + "");SendResult sendResult = producer.send(msg);System.out.println(sendResult);} catch (Exception e) {e.printStackTrace();}}producer.shutdown();}
}

定义SQL过滤Consumer

public class FilterBySQLConsumer {public static void main(String[] args) throws Exception {DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("pg");consumer.setNamesrvAddr("rocketmqOS:9876");consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);// 注意下面这句consumer.subscribe("myTopic", MessageSelector.bySql("age between 0 and 6"));// 监听并consumer.registerMessageListener(new MessageListenerConcurrently() {@Overridepublic ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {for (MessageExt me:msgs){System.out.println(me);}return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;}});consumer.start();System.out.println("Consumer Started");}
}

五:消息重试问题

1:消息发送的重试机制

Producer对发送失败的消息进行重新发送的机制,称为消息发送重试机制,也称为消息重投机制。

注意事项

  • 生产者在发送消息时,若采用同步或异步发送方式,发送失败会重试,但oneway消息发送方式发送失败是没有重试机制的
  • 只有普通消息具有发送重试机制,顺序消息是没有的
  • 消息重投机制可以保证消息尽可能发送成功、不丢失,但可能会造成消息重复。消息重复在RocketMQ中是无法避免的问题
  • 消息发送重试有三种策略可以选择:同步发送失败策略、异步发送失败策略、消息刷盘失败策略
1.1:同步发送失败策略

对于普通消息,消息发送默认采用round-robin策略来选择所发送到的队列。

如果发送失败,默认重试 2 次。

  • 重试时是不会选择上次发送失败的Broker,而是选择其它Broker。
  • 只有一个Broker其也只能发送到该Broker,但其会尽量发送到该Broker上的其它Queue。
// 创建一个producer,参数为Producer Group名称
DefaultMQProducer producer = new DefaultMQProducer("pg");
// 指定nameServer地址
producer.setNamesrvAddr("rocketmqOS:9876");
// 设置同步发送失败时重试发送的次数,默认为 2 次
producer.setRetryTimesWhenSendFailed( 3 );
// 设置发送超时时限为5s,默认3s
producer.setSendMsgTimeout( 5000 );

同时,Broker还具有失败隔离功能,使Producer尽量选择未发生过发送失败的Broker作为目标Broker。

这样做可以保证其它消息尽量不发送到问题Broker,为了提升消息发送效率,降低消息发送耗时。

思考:让我们自己实现失败隔离功能,如何来做?

  • 方案一:Producer中维护某JUC的Map集合,其key是发生失败的时间戳,value为Broker实例。Producer中还维护着一个Set集合,其中存放着所有未发生发送异常的Broker实例。选择目标Broker是从该Set集合中选择的。再定义一个定时任务,定期从Map集合中将长期未发生发送异常的Broker清理出去,并添加到Set集合。
  • 方案二:为Producer中的Broker实例添加一个标识,例如是一个AtomicBoolean属性。只要该Broker上发生过发送异常,就将其置为true。选择目标Broker就是选择该属性值为false的Broker。再定义一个定时任务,定期将Broker的该属性置为false。
  • 方案三:为Producer中的Broker实例添加一个标识,例如是一个AtomicLong属性。只要该Broker上发生过发送异常,就使其值增一。选择目标Broker就是选择该属性值最小的Broker。若该值相同,采用轮询方式选择。

如果超过重试次数,则抛出异常,由Producer去保证消息不丢。

当然当生产者出现RemotingException、MQClientException和MQBrokerException时,Producer会自动重投消息。

1.2:异步发送失败策略

异步发送失败重试时,异步重试不会选择其他broker,仅在同一个broker上做重试,所以该策略无法保证消息不丢

DefaultMQProducer producer = new DefaultMQProducer("pg");
producer.setNamesrvAddr("rocketmqOS:9876");
// 指定异步发送失败后不进行重试发送
producer.setRetryTimesWhenSendAsyncFailed( 0 );
1.3:消息刷盘失败策略

消息刷盘超时或slave不可用(slave在做数据同步时向master返回状态不是SEND_OK)时,默认是不会将消息尝试发送到其他Broker的。

对于重要消息可以通过在Broker的配置文件设置retryAnotherBrokerWhenNotStoreOK = true来开启。

2:消费重试

2.1:顺序消息的消费重试

对于顺序消息,当Consumer消费消息失败后,为了保证消息的顺序性,其会自动不断地进行消息重试,直到消费成功。

消费重试默认间隔时间为 1000 毫秒。重试期间应用会出现消息消费被阻塞的情况。

DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("cg");
// 顺序消息消费失败的消费重试时间间隔,单位毫秒,默认为 1000 ,其取值范围为[10,30000]
consumer.setSuspendCurrentQueueTimeMillis( 100 );

由于对顺序消息的重试是无休止的,不间断的,直至消费成功

⚠️ 所以,对于顺序消息的消费,务必要保证应用能够及时监控并处理消费失败的情况,避免消费被永久性阻塞。

⚠️ 顺序消息没有发送失败重试机制,但具有消费失败重试机制

2.2:无序消息的消费重试

对于无序消息(普通消息、延时消息、事务消息),当Consumer消费消息失败时,可以通过设置返回状态达到消息重试的效果。

不过需要注意,无序消息的重试只对集群消费方式生效,广播消费方式不提供失败重试特性。

对于广播消费,消费失败后,失败消息不再重试,继续消费后续消息

2.3:消息重试次数和间隔

对于无序消息集群消费下的重试消费,每条消息默认最多重试 16 次,但每次重试的间隔时间是不同的,会逐渐变长。

每次重试的间隔时间如下表。

重试次数与上次重试的间隔时间重试次数与上次重试的间隔时间
110秒97分钟
230108 分钟
31分钟119 分钟
42分钟1210分钟
53分钟1320分钟
64分钟1430分钟
75分钟151小时
86分钟162 小时

若一条消息在一直消费失败的前提下,将会在正常消费后的第 4 小时 46 分后进行第 16 次重试。

若仍然失败,则将消息投递到死信队列

修改消费重试次数

DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("cg");
// 修改消费重试次数
consumer.setMaxReconsumeTimes( 10 );

对于修改过的重试次数,将按照以下策略执行:

  • 若修改值 < 16 ,则按照指定间隔进行重试
  • 若修改值 > 16 ,则超过 16 次的重试时间间隔均为 2 小时

对于Consumer Group

  • 若仅修改了一个Consumer的消费重试次数,则会应用到该Group中所有其它Consumer实例。

  • 若出现多个Consumer均做了修改的情况,则采用覆盖方式生效。即最后被修改的值会覆盖前面设置的值。

2.4:重试队列

对于需要重试消费的消息,并不是Consumer在等待了指定时长后再次去拉取原来的消息进行消费,而是将这些需要重试消费的消息放入到了一个特殊Topic的队列中,而后进行再次消费的。这个特殊的队列就是重试队列。

当出现需要进行重试消费的消息时,Broker会为每个消费组都设置一个Topic名称为%RETRY%consumerGroup@consumerGroup的重试队列。

  • 这个重试队列是针对消息才组的,而不是针对每个Topic设置的
  • 只有当出现需要进行重试消费的消息时,才会为该消费者组创建重试队列

在这里插入图片描述

注意,消费重试的时间间隔与延时消费延时等级十分相似

除了没有延时等级的前两个时间外,其它的时间都是相同的

Broker对于重试消息的处理是通过延时消息实现的。

  1. 先将消息保存到SCHEDULE_TOPIC_XXXX延迟队列中
  2. 延迟时间到后,会将消息投递到%RETRY%consumerGroup@consumerGroup重试队列中。
2.5:消息重试/不重试配置方式
2.5.1:重试配置

集群消费方式下,消息消费失败后若希望消费重试,则需要在消息监听器接口的实现中明确进行如下三种方式之一的配置

  • 返回ConsumeConcurrentlyStatus.RECONSUME_LATER(推荐)
  • 返回Null
  • 抛出异常
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {try {...} catch (Throwable e) {// 以下三种方式都可以引发消息重试return ConsumeConcurrentlyStatus.RECONSUME_LATER;// return null;// throw new RuntimeException("消费异常");}return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
2.5.2:不重试配置

在捕获到异常后同样也返回与消费成功后的相同的结果,即ConsumeConcurrentlyStatus.CONSUME_SUCCESS,则不进行消费重试。

@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {try {...} catch (Throwable e) {// 也return成功,就不进行重试return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;}return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
2.6:死信队列

当一条消息初次消费失败,消息队列会自动进行消费重试;达到最大重试次数后,若消费依然失败,则表明消费者在正常情况下无法正确地消费该消息,此时,消息队列不会立刻将消息丢弃,而是将其发送到该消费者对应的特殊队列中。这个队列就是死信队列(Dead-Letter Queue,DLQ)

死信队列其中的消息称为死信消息(Dead-Letter Message,DLM)。

死信队列是用于处理无法被正常消费的消息的。

2.6.1:死信队列特征
  • 死信队列中的消息不会再被消费者正常消费,即DLQ对于消费者是不可见的
  • 死信存储有效期与正常消息相同,均为 3 天(commitlog文件的过期时间), 3 天后会被自动删除
  • 死信队列就是一个特殊的Topic,名称为%DLQ%consumerGroup@consumerGroup,即每个消费者组都有一个死信队列
  • 如果一个消费者组未产生死信消息,则不会为其创建相应的死信队列
  • 一个死信队列包含了对应Group ID产生的所有死信消息,不论该消息属于哪个Topic。
2.6.2:查询死信消息

消息队列RocketMQ版提供的查询死信消息的方式对比如下表所示。

查询方式查询条件查询类别说明
按Group ID查询Group ID + 时间段范围查询根据Group ID和时间范围,批量获取符合条件的所有消息;
查询量大,不易匹配。
按Message ID查询Group ID + Message ID精确查询根据Group ID和Message ID可以精确定位任意一条消息。
  1. 登录消息队列RocketMQ版控制台,在左侧导航栏单击实例列表

  2. 在顶部菜单栏选择地域,如华东1(杭州),然后在实例列表中,单击目标实例名称。

  3. 在左侧导航栏单击死信队列,然后在死信队列页面,选择以下任一方式查询死信消息:

  • 按 Group 查询 -> 根据Group ID和死信消息产生的时间范围,批量查询该Group ID在某段时间内产生的所有死信消息。页面中会显示所有符合筛选条件的死信消息

在这里插入图片描述

  • 按Message ID查询消息属于精确查询。您可以根据Group ID与Message ID精确查询到任意一条消息。页面中会显示所有符合筛选条件的死信消息

在这里插入图片描述

2.6.3:死信队列处理

实际上,当一条消息进入死信队列,就意味着系统中某些地方出现了问题,从而导致消费者无法正常消费该消息,比如代码中原本就存在Bug。

因此需要开发人员进行特殊处理。最关键的步骤是要排查可疑因素,解决代码中可能存在的Bug,然后再将原来的死信消息再次进行投递消费

六:如何保证消息不丢失

1:Producer如何保证消息不丢失


生产者发送消息之后,给生产者一个确定的通知,这个消息在Broker端是否写入完成了。

//异步发送,不需要broker确认,效率高,但是会有丢消息的可能。
producer.sendOneway(msg);
//同步发送,生产者等待Broker确认。消息最安全,但效率最低
SendResult sendResult = producer.send(msg,20*1000);
//异步发送,生产者另起一个线程等待broker确认,收到Broker确认之后直接触发回调方法。消息安全和效率之间比较均衡,但是会加大客户端的负担。
producer.send(msg,new SendCallback(){@Overridepublic void onSuccess(SendResult sendResult){//do something}@Overridepublic void onException(Throwable e){//do something}
})

​与之类似的,Kafka同样也提供了这种同步和异步的发送消息机制

//直接send发送消息,返回的是一个Future。这就相当于是异步调用
Future<RecordMetadata> future = producer.send(record);
//调用future的get方法才会世纪获取到发送的结果,生产者收到这个结果后,就可以知道消息是否成功发送到broker了。这个过程就变成了一个同步的过程
RecordMetadata recordMetadata = producer.send(record).get();

​而在RabbitMQ中,则是提供了一个Publisher Confirms生产者确认机制。

其思路也是Publisher收到Broker的响应后再发出对应的回调方法。

//获取channel
Channel ch = ...;
//添加两个回调,一个处理ack响应,一个处理nack响应
ch.addConfirmListener(ConfirmCallback ackCallback,ConfirmCallback nackCallback)

2:事务消息保证消息不丢失

在这里插入图片描述
先定义本地事务监听器

package com.mytest.mqdemo.producer;import org.apache.commons.lang3.StringUtils;
import org.apache.rocketmq.client.producer.LocalTransactionState;
import org.apache.rocketmq.common.message.Message;
import org.apache.rocketmq.common.message.MessageExt;/*** <p>* 功能描述:* </p>** @author cui haida* @date 2024/03/24/17:52*/
public class TransactionListener implements org.apache.rocketmq.client.producer.TransactionListener {/*** 执行本地事务* @param message 消息体* @param o 参数* @return 执行本地事务的结果*/@Overridepublic LocalTransactionState executeLocalTransaction(Message message, Object o) {// todo: 执行本地事务,这里这是模拟String tags = message.getTags();if (StringUtils.contains("A", tags)) {return LocalTransactionState.COMMIT_MESSAGE;}if (StringUtils.contains("B", tags)) {return LocalTransactionState.ROLLBACK_MESSAGE;} else {return LocalTransactionState.UNKNOW;}}/*** 回查本地事务* @param message 待回查的本地事务信息* @return 回查结果*/@Overridepublic LocalTransactionState checkLocalTransaction(MessageExt message) {String tags = message.getTags();if (StringUtils.contains("C", tags)) {return LocalTransactionState.COMMIT_MESSAGE;}if (StringUtils.contains("D", tags)) {return LocalTransactionState.ROLLBACK_MESSAGE;} else {return LocalTransactionState.UNKNOW;}}
}

生产者指定本地事务监听器,并进行消息的发送

package com.mytest.mqdemo.producer;import org.apache.rocketmq.client.producer.TransactionMQProducer;
import org.apache.rocketmq.client.producer.TransactionSendResult;
import org.apache.rocketmq.common.message.Message;import java.nio.charset.StandardCharsets;
import java.util.concurrent.ArrayBlockingQueue;
import java.util.concurrent.ThreadFactory;
import java.util.concurrent.ThreadPoolExecutor;
import java.util.concurrent.TimeUnit;/*** <p>* 功能描述:* </p>** @author cui haida* @date 2024/03/24/17:47*/
public class TransactionProducer {public static void main(String[] args) throws Exception {// 注意这里使用的是事务消息生产者TransactionMQProducer transactionProducer = new TransactionMQProducer("transaction_producer");transactionProducer.setNamesrvAddr("192.168.111.128:9876");// 异步提交,提高性能ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(2, 5, 100, TimeUnit.SECONDS, // 4大基本参数new ArrayBlockingQueue<>(2000), // 队列类型和大小new ThreadFactory() { // 线程工厂指定@Overridepublic Thread newThread(Runnable r) {Thread thread = new Thread(r);thread.setName("test-for-trans");return thread;}});transactionProducer.setExecutorService(threadPoolExecutor);// 创建一个本地事务的监听器transactionProducer.setTransactionListener(new TransactionListener());transactionProducer.start();String[] tags = new String[]{"A", "B", "C", "D", "E"};for (int i = 0; i < 10; i++) {String body = (tags[i % tags.length] + "trans_message");Message message = new Message("trans", tags[i % tags.length], body.getBytes(StandardCharsets.UTF_8));// 发送TransactionSendResult transactionSendResult = transactionProducer.sendMessageInTransaction(message, null);System.out.println("消息发送成功_" + transactionSendResult);Thread.sleep(10);}Thread.sleep(10000);transactionProducer.shutdown();}
}

定义消费者信息

因为半消息和回查对于消费者无感知,所以消费者就是最基本的实现

package com.mytest.mqdemo.customer;import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
import org.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently;
import org.apache.rocketmq.client.exception.MQClientException;
import org.apache.rocketmq.common.consumer.ConsumeFromWhere;
import org.apache.rocketmq.common.message.MessageExt;import java.nio.charset.StandardCharsets;/*** @author cuihaida* <p>*     简单消费* </p>*/
public class PushConsumer {public static void main(String[] args) throws MQClientException {// 消费的推拉模式// 拉模式:pull -> 消费者主动去Broker上拉取消息// 推模式:push -> 消费者等待Broker将消息推送过来// 定义一个push消费者String consumerGroup = "cg";DefaultMQPushConsumer consumer = new DefaultMQPushConsumer(consumerGroup);// 指定nameServerconsumer.setNamesrvAddr("192.168.111.129:9876");// 指定消费topic与tagString consumerTopic = "someTopic";String subTag = "*"; // 当前主题下的任意标签消息consumer.subscribe(consumerTopic, subTag);// 指定采用“广播模式”进行消费,默认为“集群模式”// consumer.setMessageModel(MessageModel.BROADCASTING);// 注册消息监听器// 一旦broker中有了其订阅的消息就会触发该方法的执行,其返回值为当前consumer消费的状态// MessageListener有两个实现类:// --> MessageListenerConcurrently -> 并发消费// --> MessageListenerOrderly -> 顺序消费// 第一个参数是消息列表,第二个参数是上下文consumer.registerMessageListener((MessageListenerConcurrently) (messages, context) -> {// 逐条消费消息for (MessageExt msg : messages) {try {String msgBody = new String(msg.getBody(), StandardCharsets.UTF_8);System.out.println(msgBody);// todo: processMessage(msgBody);// 手动ACK,返回消费状态:消费成功return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;} catch (Exception e) {System.out.println("消息消费异常");// todo: 打印堆栈信息,异常处理// 手动ACK,返回消费状态:需要重新消费return ConsumeConcurrentlyStatus.RECONSUME_LATER;}}// 返回消费状态:消费成功return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;});// 开启消费者消费consumer.start();System.out.println("=========> Consumer Started <=============");}
}

3:broker保证消息不丢失

Producer把消息发送到Broker上了之后,Broker是不是能保证消息不丢失呢?这里有一个核心问题——PageCache缓存

​ 数据会优先写入缓存,然后过一段时间再写图到磁盘。但是缓存中的数据有个特点,就是断点即丢失,所以,如果服务器发生非正常断电,内存中的数据还没有写入磁盘,这是就会造成消息丢失。

以Linux为例,用户态就是应用程序,不管是什么应用程序,想要写入磁盘文件时,都只能调用操作系统提供的write系统调用,申请写磁盘。至于消息如何经过PageCache再写入到磁盘中,这个过程就是在内核态执行的,也就是操作系统自己执行的,应用程序无法干预。这个过程中,应用系统唯一能够干预的,就是调用操作系统提供的sync系统调用,申请一次刷盘操作,主动将PageCache中的数据写入到磁盘。

4:Broker主从同步如何保证不丢失

对于Broker来说,通常Slaver的作用就是做一个数据备份,当Broker服务宕机时,甚至是磁盘坏了时,可以从Slaver上获取数据记录。

但是,如果主从同步失败了,那么Broker的这一层保证就会失效。因此,主从同步也有可能造成消息的丢失。

  • 普通集群 - 指定角色,各司其职
  • Dledger高可用集群,自行选举,多数同意

5:Consumer如何保证消费不丢失

几乎所有的MQ产品都设置了消费者消费者状态确认机制。也就是消费者处理完消息之后,需要给Broker一个响应,表示消息被正常处理了。

如果Broker没有拿到这个响应,不管是因为Consumer没有拿到还是Consumer处理完消息后咩有给出响应,Broker都会认为消息没有处理成功。之后,Broker就会向Consumer重复投递这些没有处理成功的消息。

6:如果MQ服务全挂了,如何保证不丢失

​ 针对这种情况,通常做法是设计一个降级缓存。Producer往MQ发消息失败了,就往降级缓存中写,然后,依然正常去进行后续的业务。

​ 此时,再启动一个线程,不断尝试将降级缓存中的数据往MQ中发送。这样,至少当MQ服务恢复之后,这些消息可以尽快进入到MQ中,继续往下游Consumer推送,而不至于造成消息丢失。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/20676.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

MySQL登录问题总结

不管何种数据库&#xff0c;使用的第一步都是先登录。 MySQL命令行登录语句&#xff1a;mysql -u username -P port -p -D database_name 登录MySQL的报错一般从报错信息都能得到反馈&#xff0c;常见报错原因分析如下&#xff0c;实例中的以test用户为例&#xff0c;登录环境为…

《千恋万花》无广版手游安卓苹果免费下载直装版

自取https://pan.xunlei.com/s/VOJS77k8NDrVawqcOerQln2lA1?pwdn6k8 《千恋万花》&#xff1a;柚子社的和风恋爱杰作 《千恋万花》&#xff08;Senren * Banka&#xff09;是由日本知名美少女游戏品牌柚子社&#xff08;Yuzusoft&#xff09;于2016年推出的一款和风恋爱题材…

【部署优化篇三】《DeepSeek边缘计算实战:把目标检测模型塞进树莓派,让AI在巴掌大的设备上“开天眼“》

“谁说只有超级计算机才能跑AI?今天咱们就要在树莓派上玩转DeepSeek目标检测,让这个巴掌大的小盒子变成会‘看’世界的智能终端!” 本文手把手教你从零开始,把最潮的目标检测模型塞进树莓派。全程高能预警,建议准备好你的树莓派4B/5和散热风扇,咱们这就开启边缘计算的魔法…

C++ Primer 类的作用域

欢迎阅读我的 【CPrimer】专栏 专栏简介&#xff1a;本专栏主要面向C初学者&#xff0c;解释C的一些基本概念和基础语言特性&#xff0c;涉及C标准库的用法&#xff0c;面向对象特性&#xff0c;泛型特性高级用法。通过使用标准库中定义的抽象设施&#xff0c;使你更加适应高级…

如何在 VS Code 中快速使用 Copilot 来辅助开发

在日常开发中&#xff0c;编写代码往往是最耗时的环节之一。而 GitHub Copilot&#xff0c;作为一款 AI 编码助手&#xff0c;可以帮助开发者 自动补全代码、生成代码片段&#xff0c;甚至直接编写完整的函数&#xff0c;大幅提升编码效率。那么&#xff0c;如何在 VS Code 中快…

剑指 Offer II 024. 反转链表

comments: true edit_url: https://github.com/doocs/leetcode/edit/main/lcof2/%E5%89%91%E6%8C%87%20Offer%20II%20024.%20%E5%8F%8D%E8%BD%AC%E9%93%BE%E8%A1%A8/README.md 剑指 Offer II 024. 反转链表 题目描述 给定单链表的头节点 head &#xff0c;请反转链表&#xff…

通过API 调用本地部署 deepseek-r1 模型

如何本地部署 deepseek 请参考&#xff08;windows 部署安装 大模型 DeepSeek-R1&#xff09; 那么实际使用中需要开启API模式&#xff0c;这样可以无拘无束地通过API集成的方式&#xff0c;集成到各种第三方系统和应用当中。 上遍文章是基于Ollama框架运行了deepSeek R1模型…

【产品经理】需求分析方法论+实践

阐述了需求分析的基本认知&#xff0c;包括需求分析的定义、原则和内容。接着&#xff0c;文章详细介绍了需求分析的十个步骤&#xff0c;从收集需求到结果评审&#xff0c;为产品经理提供了清晰的操作指南。 作为产品经理&#xff0c;需求分析是一个最基本的工作&#xff0c;但…

【玩转 Postman 接口测试与开发2_020】(完结篇)DIY 实战:随书示例 API 项目本地部署保姆级搭建教程(含完整调试过程)

《API Testing and Development with Postman》最新第二版封面 文章目录 最新版《Postman 接口测试与开发实战》示例 API 项目本地部署保姆级搭建教程1 前言2 准备工作3 具体部署3.1 将项目 Fork 到自己名下3.2 创建虚拟环境并安装依赖3.3 初始运行与项目调试 4 示例项目的用法…

2025年02月19日Github流行趋势

项目名称&#xff1a;OmniParser 项目地址url&#xff1a;https://github.com/microsoft/OmniParser 项目语言&#xff1a;Jupyter Notebook 历史star数&#xff1a;12878 今日star数&#xff1a;2153 项目维护者&#xff1a;yadong-lu, ThomasDh-C, aliencaocao, nmstoker, kr…

侯捷 C++ 课程学习笔记:设计模式在面向对象开发中的应用

在侯捷老师的《C 面向对象开发》课程中&#xff0c;除了对面向对象编程的基础特性&#xff08;封装、继承和多态&#xff09;的深入讲解外&#xff0c;还引入了设计模式这一高级主题。设计模式是面向对象编程中的一种最佳实践&#xff0c;能够帮助开发者解决常见的设计问题&…

前七章综合练习

一&#xff0c;拓扑图 二&#xff0c;实验要求 不限 三&#xff0c;实验步骤 第一步&#xff0c;搭建拓扑图 如上 注意&#xff1a; 第二步&#xff0c;配置IP trust&#xff1a; client1 client2 fw untrusrt-1&#xff1a; fw r3 电信DNS 百度web-1 untrust-2&#xf…

个人shell脚本分享

在周一到周五做增量备份&#xff0c;在周六周日做完全备份 #!/bin/bash定义变量 SRC“/path/to/source” # 源目录 BKUP“/backup” # 备份主目录 FUL“KaTeX parse error: Expected EOF, got # at position 22: …ull" #̲ 完全备份目录 INC"BKUP/inc” # 增量备份…

C语言之函数封装技巧

目录 前言 一、函数在源代码中的三种状态 二、函数封装的运用 案例1&#xff1a;实现打印20以内的素数 案例2&#xff1a;存放因子数并返回长度 三、return返回与形参返回 四、<>与“” 五、解耦 总结 前言 在C语言中&#xff0c;函数封装是一种重要的技巧&#…

深度神经网络终极指南:从数学本质到工业级实现(附Keras版本代码)

深度神经网络终极指南&#xff1a;从数学本质到工业级实现&#xff08;附Keras版本代码&#xff09; 为什么深度学习需要重新理解&#xff1f;&#xff08;与浅层模型的本质差异&#xff09; 模型类型参数容量特征学习方式适合问题类型浅层模型102-104手动特征工程低维结构化数…

vue3 + thinkphp 接入 七牛云 DeepSeek-R1/V3 流式调用和非流式调用

示例 如何获取七牛云 Token API 密钥 https://eastern-squash-d44.notion.site/Token-API-1932c3f43aee80fa8bfafeb25f1163d8 后端 // 七牛云 DeepSeek API 地址private $deepseekUrl https://api.qnaigc.com/v1/chat/completions;private $deepseekKey 秘钥;// 流式调用pub…

IIS asp.net权限不足

检查应用程序池的权限 IIS 应用程序池默认使用一个低权限账户&#xff08;如 IIS_IUSRS&#xff09;&#xff0c;这可能导致无法删除某些文件或目录。可以通过以下方式提升权限&#xff1a; 方法 1&#xff1a;修改应用程序池的标识 打开 IIS 管理器。 在左侧导航树中&#x…

代码解读:如何将HunYuan T2V模型训练成I2V模型?

Diffusion models代码解读:入门与实战 前言:HunYuan T2V模型出来很久了,但是想要训练成I2V的模型还是有点难度。此外,还有很多预训练视频模型都是T2V的,可以借鉴本文的方法加入参考图作为条件,并严格保持视频的第一帧与Image一样。 目录 Patch Image Padding Channel …

windows事件倒计时器与提醒组件

widgets 这是桌面组件前端开源组件&#xff0c;作者称&#xff1a;项目还在持续完善中&#xff0c;目前包含键盘演示、抖音热榜、喝水提醒、生日列表、待办事项、倒计时、灵动通知、打工进度等多个组件 有vue编程能力的可以自己做组件 百度网盘 夸克网盘 桌面组件 | Ca…

汽车零部件工厂如何通过工业一体机实现精准控制

在汽车制造行业中&#xff0c;零部件的精度和质量直接关系到整车的性能与安全。随着汽车工业的快速发展&#xff0c;汽车零部件工厂对生产过程的精准控制提出了更高的要求。传统的生产管理模式往往依赖人工操作和分散的系统&#xff0c;难以满足现代汽车零部件工厂的需求。而工…