19 | CommitFailedException异常怎么处理?
19 | CommitFailedException异常怎么处理?
讲述:胡夕
时长11:44大小10.74M
小结
开放讨论
赞 11
提建议
精选留言(50)
- 小生向北2019-07-17max.poll.interval.ms是指两次poll()的最大间隔时间,kafka消费者以轮询的方式来拉取消息,并且一次拉取批量的消息(默认500条),而批量的大小是通过max.poll.records来控制的。两次poll()的实际时间取决于 单条消息的处理时间*一次拉取的消息量(500),当超过max.poll.interval.ms配置的时间Kafka server认为kafka consumer掉线了,于是就执行分区再均衡将这个consumer踢出消费者组。但是consumer又不知道服务端把自己给踢出了,下次在执行poll()拉取消息的时候(在poll()拉取消息之前有个自动提交offset的操作),就会触发该问题。 可见第2,3种方案是通过调整Kafka consumer的配置参数来缩短业务总的处理时间或者增加服务端判断时长,比较容易实现;第1种就跟业务有关了,比较难搞,有些业务可能就是要这么长的时间,很难再缩短;第4种方案就更复杂了,要把同步消息转换成异步,交给其它线程来处理,这时需要把auto.commit.enable=false,手动提交offset,并且consumer是线程不安全的,异步线程何时处理完,何时该提交,在哪提交,也是应用需要考虑的问题!希望胡老师针对第4种方案重点探讨一下!展开共 6 条评论45
- ban2019-07-16老师,1、请问Standalone Consumer 的独立消费者一般什么情况会用到 2、Standalone Consumer 的独立消费者 使用跟普通消费者组有什么区别的。
作者回复: 1. 很多流处理框架的Kafka connector都没有使用consumer group,而是直接使用standalone consumer,因为group机制不好把控 2. standalone consumer没有rebalance,也没有group提供的负载均衡,你需要自己实现。其他方面(比如位移提交)和group没有太大的不同
38 - 胡小禾2020-05-11“当消息处理的总时间超过预设的 max.poll.interval.ms 参数值时,Kafka Consumer 端会抛出 CommitFailedException 异常”。 其实逻辑是这样:消息处理的总时间超过预设的 max.poll.interval.ms 参数值 导致了 Rebalance‘; rebalance导致了 partition assgined 的consumer member变了; 导致原来的consumer 想要commit都没法commit 。(因为元信息,比如连的broker都变了). 请老师指正下展开
作者回复: 嗯,差不多是这个道理:)
共 2 条评论26 - 胡小禾2020-05-11为啥自动commit 不会抛 CommitFailedException?
作者回复: 自动commit失败由Kafka内部消化处理
19 - 德惠先生2019-07-16希望老师可以更加具体的说说,rebalance的细节,比如某个consumer发生full gc的场景,它的partition是怎么被分配走的,重连之后提交会发生什么
作者回复: 假设full gc导致所有线程STW,从而心跳中断,导致被踢出group,Coordinator向其他存活consumer发送心跳response,通知它们开启新一轮rebalance。
共 3 条评论17 - ban2019-07-16老师,我想问下max.poll.interval.ms两者session.timeout.ms有什么联系,可以说0.10.1.0 之前的客户端 API,相当于session.timeout.ms代替了max.poll.interval.ms吗? 比如说session.timeout.ms是5秒,如果消息处理超过5秒,也算是超时吗?
作者回复: 嗯,我更愿意说是max.poll.interval.ms承担了session.timeout.ms的部分功能。在没有max.poll.interval.ms和单独的心跳线程之前,如果session.timeout.ms = 5s,消息处理超过了5s,那么consumer就算是超时
共 2 条评论10 - windcaller2019-07-31To use this mode, instead of subscribing to the topic using subscribe, you just call assign(Collection) with the full list of partitions that you want to consume. String topic = "foo"; TopicPartition partition0 = new TopicPartition(topic, 0); TopicPartition partition1 = new TopicPartition(topic, 1); consumer.assign(Arrays.asList(partition0, partition1)); Once assigned, you can call poll in a loop, just as in the preceding examples to consume records. The group that the consumer specifies is still used for committing offsets, but now the set of partitions will only change with another call to assign. Manual partition assignment does not use group coordination, so consumer failures will not cause assigned partitions to be rebalanced. Each consumer acts independently even if it shares a groupId with another consumer. To avoid offset commit conflicts, you should usually ensure that the groupId is unique for each consumer instance. 老师 standalone mode 是上面这段内容吗?展开
作者回复: 是的。使用assign的consumer就是standalone consumer
8 - Li Shunduo2019-07-16假如broker集群整个挂掉了,过段时间集群恢复后,consumer group会自动恢复消费吗?还是需要手动重启consumer机器?
作者回复: consumer有重连机制
8 - 注定非凡2019-11-05A :定义:所谓CommitFailedException,是指Consumer客户端在提交位移时出现了错误或异常,并且并不可恢复的严重异常。 B :导致原因: (1)消费者端处理的总时间超过预设的max.poll.interval.ms参数值 (2)出现一个Standalone Consumerd的独立消费者,配置的group.id重名冲突。 C :解决方案: (1)减少单条消息处理的时间 (2)增加Consumer端允许下游系统消费一批消息的最大时长 (3)减少下游系统一次性消费的消息总数。 (4)下游使用多线程加速消费展开7
- cricket19812019-07-16"不幸的是,session.timeout.ms 参数还有其他的含义,因此增加该参数的值可能会有其他方面的“不良影响”,这也是社区在 0.10.1.0 版本引入 max.poll.interval.ms 参数,将这部分含义从 session.timeout.ms 中剥离出来的原因之一。"--->能细述一下不良影响吗?
作者回复: 之前版本中session.timeout.ms有多重含义,session过期时间、消息处理逻辑最大时间等
5 - 柯察金2019-11-08老师,没有设置 group.id 话,会怎么样,系统会自动生成唯一的一个值吗
作者回复: group.id是必须要设置的,否则会抛InvalidGroupIdException异常
5 - 有时也,命也,运也,...2019-07-30老师kafka死信该怎么去实现的? 2.0之后增加了如下配置: errors.tolerance = all errors.deadletterqueue.topic.name = ""?
作者回复: 还不够,你需要使用Kafka Connect组件才能实现。见:https://www.confluent.io/blog/kafka-connect-deep-dive-error-handling-dead-letter-queues
6 - 极极2020-02-22老师您好,这边遇到个很奇怪的问题 开启第一个消费者的时候,正常消费 但是开启另一个后,触发了 rebalanced 这时候第一个消费者会报出如下错误: The provided member is not known in the current generation 是因为第一个消费者被踢出了 generation,但是它不知道,还在继续消费提交位移,或者做着其他事情?这个其他事情可能是什么? 还有就是 rebalance发生的时候,消费者是立即暂停,还是会消费完整个poll?这时候coordinator会等他吗?还是直接踢出去?展开
作者回复: 两个consumer都是使用subscribe方法订阅的topic吗? 另外,rebalance发生时Coordinator会通过心跳response通知消费者。如果消费者此时正在处理消息,肯定是不会响应的,毕竟还没有强行中断的机制
共 3 条评论4 - windcaller2019-07-30我没在kafka官网、stackoverflow 、google 找到任何关于 standalone kafka consumer的 例子,还望老师给个链接学习学习
作者回复: Standalone consumer的提法并未出现在官方文档中,你可以在javadoc中看到一些:https://kafka.apache.org/23/javadoc/org/apache/kafka/clients/consumer/KafkaConsumer.html#manualassignment
5 - crud~boy2020-08-20老师poll一批消息,多线程处理并且是手动处理,会不会每个线程速度不一致,会导致提交位移时,offset小得后提交,会有什么影响吗
作者回复: 如果是多线程提交位移,的确有可能出现这种情况。影响就是可能出现重复消费
共 2 条评论3 - 石栖2020-05-05关于这个错误,我这边很奇怪,consumer用的是自动提交的配置,但是也出现了这个错误。看错误应该是broker-2挂掉了,然后rediscovery。但是后面日志又说The coordinator is not aware of this member.再后面就是Commit cannot be completed 的错误了。我这里是有多个broker,然后采用的域名的方式,ip可能会变。老师通过这些日志,能给点建议吗? 错误日志: 2020-05-04 18:49:56.592 INFO 6 --- [ntainer#0-0-C-1] o.a.k.c.c.internals.AbstractCoordinator : [Consumer clientId=consumer-2, groupId=test-group] Discovered group coordinator broker-2-lhfm0slmx1v4nyfz.kafka.svc01.local:9093 (id: 2147483645 rack: null) 2020-05-04 18:49:56.592 INFO 6 --- [ntainer#0-0-C-1] o.a.k.c.c.internals.AbstractCoordinator : [Consumer clientId=consumer-2, groupId=test-group] Group coordinator broker-2-lhfm0slmx1v4nyfz.kafka.svc01.local:9093 (id: 2147483645 rack: null) is unavailable or invalid, will attempt rediscovery 2020-05-04 18:49:56.694 INFO 6 --- [ntainer#0-0-C-1] o.a.k.c.c.internals.AbstractCoordinator : [Consumer clientId=consumer-2, groupId=test-group] Discovered group coordinator broker-2-lhfm0slmx1v4nyfz.kafka.svc01.local:9093 (id: 2147483645 rack: null) 2020-05-04 18:49:56.735 ERROR 6 --- [ntainer#0-0-C-1] o.a.k.c.c.internals.ConsumerCoordinator : [Consumer clientId=consumer-2, groupId=test-group] Offset commit failed on partition test.topic-0 at offset 0: The coordinator is not aware of this member. 2020-05-04 18:49:56.735 WARN 6 --- [ntainer#0-0-C-1] o.a.k.c.c.internals.ConsumerCoordinator : [Consumer clientId=consumer-2, groupId=test-group] Asynchronous auto-commit of offsets {test.topic-0=OffsetAndMetadata{offset=0, metadata=''}} failed: Commit cannot be completed since the group has already rebalanced and assigned the partitions to another member. This means that the time between subsequent calls to poll() was longer than the configured max.poll.interval.ms, which typically implies that the poll loop is spending too much time message processing. You can address this either by increasing the session timeout or by reducing the maximum size of batches returned in poll() with max.poll.records.展开
作者回复: 能告知一下Kafka版本吗?目前社区对这部分代码改动很多,需要确认下是哪个版本碰到的问题
共 3 条评论3 - 张洋2019-11-21老师有两个疑问: 1.相同的GroupId的Consumer 不应该就是同一个Consumer Group 组下的吗,或者有其他的区分条件,比如订阅的Topic不同? 2.如果这个standalone Consumer 再给他添加一个同组的standalone Conusmer,会发生什么?展开
作者回复: 1. 设置相同group.id的consumer就是属于同一个group,你说的是对的:) 2. 会出现位移提交失败的问题。严格来说这其实是一个问题,但是如果反馈到社区,社区会认为这不是标准用法
2 - ifelse2021-08-01好像只说了如何避免出现异常,但是异常出现了怎么处理呢,有类似回滚什么的吗?会重复消费吗?
作者回复: 不会回滚。消费出了任何问题都表现为consumer无法继续处理,然后人工需要介入,然后可能出现重复消费
共 2 条评论2 - 绿箭侠2021-07-30场景二,为什么只强调standalone 和 group之间可能会发生groupid相同,那group之间相同怎么样呢? 是不是会在coordinator注册group时就能发现组之间重复了groupid ?!!!
作者回复: group之间相同?那么就会认为是同一个group
1 - 松鼠鱼2020-06-27老师,我的程序使用的是自动提交offset,其他interval等相关参数(max poll, session timeout等)都是默认的。消息消费的速度也算快,500条应该就是一秒的事儿。可是这样也还是偶尔会发生Offset commit failed异常,通常是在程序跑了一阵之后,请问您有没有遇到过类似的情况?这是不是和单一一个consumer同时消费多个partition有关?
作者回复: 这可能是因为broker端的问题而引起的,比如Coordinator变更了,或开启了新的Rebalance。如果是偶发的,你不用太过担心~
共 2 条评论2