09 | 生产者消息分区机制原理剖析
09 | 生产者消息分区机制原理剖析
讲述:胡夕
时长10:46大小9.84M
为什么分区?
都有哪些分区策略?
小结
开放讨论
赞 35
提建议
精选留言(142)
- kevin2019-06-22之前做车辆实时定位(汽车每10s上传一次报文)显示的时候,发现地图显示车辆会突然退回去,开始排查怀疑是后端处理的逻辑问题导致的,但是后台保证了一台车只被一个线程处理,理论上不会出现这种情况;于是猜测是不是程序接收到消息的时候时间序就已经乱了,查阅了kafka相关资料,发现kafka同一个topic是无法保证数据的顺序性的,但是同一个partition中的数据是有顺序的;根据这个查看了接入端的代码(也就是kafka的生产者),发现是按照kafka的默认分区策略(topic有10个分区,3个副本)发送的;于是将此处发送策略改为按照key(车辆VIN码)进行分区,后面车辆的定位显示就正常了。展开共 9 条评论418
- 邋遢的流浪剑客2019-06-22之前学习Kafka的时候确实有点忽略了生产者分区策略这一块内容,感谢老师的分享,特意去看了一下源码,Java客户端默认的生产者分区策略的实现类为org.apache.kafka.clients.producer.internals.DefaultPartitioner。默认策略为:如果指定了partition就直接发送到该分区;如果没有指定分区但是指定了key,就按照key的hash值选择分区;如果partition和key都没有指定就使用轮询策略。而且如果key不为null,那么计算得到的分区号会是所有分区中的任意一个;如果key为null并且有可用分区时,那么计算得到的分区号仅为可用分区中的任意一个展开共 6 条评论85
- Adol2019-06-23老师好,在消息重试的时候,分区策略会重新再计算一次吗?比如一开始选择到5号分区,但是5号分区有问题导致重试,重试的时候可以重试发送到别的分区上吗?
作者回复: 不会的。消息重试只是简单地将消息重新发送到之前的分区
共 4 条评论40 - QQ怪2019-06-22我们公司一直使用单个分区保持消息顺序性,看了老师分享的东西收益很多啊,准备回去好好分析改造下
作者回复: 我们公司之前也有一个业务是单分区,要保证全局顺序。后来发现其实使用key+多分区也可以实现。反正保证同一批因果依赖的消息分到一个分区就可以
共 4 条评论41 - jc9090kkk2019-09-20感谢老师的分享,对于按消息键保序策略有一个疑问,假如我现在的业务数据定义了三个key,但是这三个key对应的消息生产速率不一致,按照老师上面的示意图展示的是,特定的key只会存储在特定的一个分区中,那岂不是牺牲了拓展性么,如果其中一个key的生产速率非常大,而另外2个key没那么大,却会一直占用分区,不会造成分区的空间浪费吗?还是我理解的有问题吗?希望老师解答一下,谢谢
作者回复: 嗯嗯,是有这样的问题。所以其实在生产环境中用key做逻辑区分并不太常见。如果不同key速率相差很大,可以考虑使用不同的topic
共 2 条评论35 - hgf2019-07-10老师您好,跨地区的kafka集群,创建的两个partition都在一个地方怎么办呢?创建topic时可以选择在哪些节点上创建partition吗?默认是随机选择节点创建partition吗?
作者回复: 可以选择。kafka-topics支持在创建topic时指定partition放在那些broker上
27 - 风轻扬2019-07-28老师,我见到有网友提问,说是消费者出现reblance的情况时。key-ordering策略可能会导致消费了“因“,reblance之后,无法消费 “果“。您给出的建议是,显示设置consumer端参数partition.assignment.strategy。这个设置。是不是只要使用了key保序策略,就一定要设置上呢?消费过程中出现reblance是很正常的啊
作者回复: 嗯嗯,可能我没说清楚。如你说所rebalance是非常常见,如果再要求消费时消息有明确前后关系,这个就很复杂了。常见的做法是单分区来保证前后关系,但是这可能不符合很多使用场景。 我给出了另一个建议,就是设置partition.assignment.strategy=Sticky,这是因为Sticky算法会最大化保证消费分区方案的不变更。假设你的因果消息都有相同的key,那么结合Sticky算法有可能保证即使出现rebalance,要消费的分区依然有原来的consumer负责。
共 7 条评论21 - WL2019-06-22老师能不能有空能不能讲讲kafka和rocketMQ的对比, 我用下来感觉整体挺像的但是具体使用场景和性能优劣方面还是有点不知道该使用选择, 谢谢.
作者回复: 之前也曾经回答过,不一定客观,姑且听之。在我看来RocketMQ与Kafka的主要区别 :1. Kafka吞吐量大,多是面向大数据场景。RocketMQ吞吐量也很强, 不过它号称是金融业务级的消息中间件,也就是说可以用于实际的业务系统;2. RocketMQ毕竟是阿里出品,在国内技术支持力度要比Kafka强;3. Kafka现在主要发力Streaming,RocketMQ在流处理这块表现如何我不太清楚,至少streaming不是它现阶段的主要卖点。 其他方面这两者确实都差不多~~
18 - 嘉嘉☕2019-11-28老师好, 关于生产消息, 我有个问题请教一下老师. 生产者生产消息, 采用轮询策略, 假如轮询到分区A了, 分区A的leader所在的broker有些异常(比如不能及时给出响应), 此时, kafka的重试机制是怎样的 ? 谢谢
作者回复: 只会重试发送到相同的分区
15 - 我已经设置了昵称2019-06-22广州机房怎么消费广州partition的数据,consumer如何指定消费的partition。这个能讲下吗
作者回复: 使用这个方法:consumer.assign()直接消息指定分区
12 - 海贼王2019-07-07感觉这篇文章没有回答怎么保证分区里数据和生产者消息顺序是一致这个问题。 这里有两个例子:1是,一个生产者,发两次消息,但是网络原因,消息到达的顺序和消息发送的顺序不一致,2是两个生产者,这时候消息如何确定消息的顺序呢。 场景1在做CDC,同步数据库数据到异构数据系统很常见 场景2对某些业务很重要 对于第一种,我的一个思路是保证只有一个生产者,且设置生产者的ack为all级别 对于场景2就不知道kafka能怎么做了。 希望老师能解惑展开
作者回复: 1. 防止乱序可以通过设置max.in.flight.requests.per.connection=1来保证 2. 两个生产者生产的消息无法保证顺序,因为它们本身就没有前后之分,它们是并发的关系。
共 7 条评论12 - Geek_b809ff2019-08-29老师,想请教几个问题: 1、key是不是必须得完全一样,才能保证会发送到同一个分区? 2、如果kafka搭了集群,有三个broker,分别是broker1、broker2、broker3。这时候我对名称为test的topic发送消息,key设置为A,消息会随机发送到三个broker上去吗?那这样的话顺序不就乱了吗?如果我想保证所有的消息都顺序,是不是需要指定发送到其中一个broker?展开
作者回复: 1. 根据默认分区策略,同一个key的消息肯定会发送到同一个分区 2. 首先,你的消息会被发送到某个分区的leader副本上。这个分区的leader副本只能存在于3个broker中的一个,但是如果test的副本数是3,那么一条消息也会被备份到其他两个broker上。只是只有leader副本对外提供服务,因此没有顺序乱的情况出现。 3. 如果想保证顺序,指定消息key即可,这样能保证分送到同一个分区上。是否发到同一个broker上无关紧要
共 2 条评论10 - 随心而至2020-03-25看了《数据库系统概念》,感觉基本上逃不开里面讲的,只是不同框架有自己的叫法罢了
作者回复: 底层的那套东西没有那么容易过时的:)
9 - Geek_817ea42019-07-01总结:首先判断ProducerRecord中的partition字段是否有值,即是否在创建消息记录的时候直接指定了分区;如果指定了分区,则直接将该消息发送到指定的分区,否则调用分区器的partition方法,执行分区策略;如果用户配置了自己写的分区器,且在生产者配置是指定了,则使用用户指定的分区器,否则使用默认的分区器,即DefaultPartitioner;如果指定了key,则使用该key进行hash操作,并转为正数,然后对topic对应的分区数量进行取模操作并返回一个分区;如果没有指定key,则通过先产生随机数,之后在该数上自增的方式产生一个数,并转为正数之后进行取余操作。展开共 2 条评论9
- hgf2019-07-10如果消费过程中出现rebalance,那么可能造成因果关系之消费了因后rebalance,然后不处理之前的partition了,后面的消费者也无法处理该partition的“果”,请问,您对这种情况怎么处理的呢?
作者回复: 可以试试sticky assignor,即设置consumer端参数partition.assignment.strategy=class org.apache.kafka.clients.consumer.StickyAssignor
共 2 条评论8 - 从零开始2019-10-23老师,key在哪指定,怎么指定啊
作者回复: Producer发送消息的时候可以直接指定key,比如producer.send(new ProducerRecord("my-topic", "key", "value"));
6 - 余生尽是归途2019-10-11胡老师,我们这边的场景是,解析上游推送的数据文件(xml格式文件达成的GZ数据压缩包,每个30M-、100M不等),我们采用的方式是,将数据包的路径作为消息发送至kafka(50个分区),然后sparkstreaming并行消费(手动提交的方式消费,数据包解析完成才视为消息消费成功)50个分区的消息(spark通过路径信息去解压解析数据包)。由于数据包大小差异较大,如果按照轮询的方式,在运气不好的情况下,某个分许存放了大量较大数据包,那么这个分区就会成为这一批次数据的瓶颈,后续的处理流程智能等待该分区消费完后才能处理。所以我采用了每次将生产者发送的消息发送至lag最小的分区,在一定程度上避免这个问题。但是这样每次投递消息之前我需要首先查询所有分区的lag值,然后选择lag值较小的分区进行投递,还好,我们的数据包个数不算使特别大(一个小时就几万个,并且消费逻辑重,主要时间消耗为数据消费时间)。这种情况下,分区的策略有没有什么更好的选择呢展开
作者回复: 我觉得你现在的策略本身已经是一个很好的策略了。另外你的batch size是多大呢??
共 2 条评论7 - EricJones2019-06-24分区实现负载均衡提高吞吐量,一台机器多个分区也会有负载均衡效果?也会提高吞吐量?如果会那我一台机器一个kafka 分多少分区合适?我看有人一台机器一个kafka也分了五六个分区。这样做有什么好处?
作者回复: 通常1台broker上有多个分区依然能提升TPS,毕竟单个分区消耗不掉大部分的系统资源。当然一切以实际测试结果为准。
共 3 条评论6 - 非想2019-07-06老师您好,Kafka支持事务消息吗?
作者回复: 0.11开始支持事务了。嗯,并没有所谓的事务消息,不过倒是有事务标记消息(transaciton marker)。事务Consumer靠它来判断消息的可见性——即什么消息属于已提交事务的消息,事务consumer能够读取。
5 - 风中花2019-06-24打卡继续。老师我有个小白问题 按消息键保序策略 实现方法 return Math.abs(key.hashCode()) % partitions.size(); 如果key 不变,增加分区数(partitions.size();)。那么这个算法,是不是就变成原来key1的消息在1区,增加分区后会不会变成ke1的消息放到其他区呢? 我的理解是不是不对啊?
作者回复: 同意。其实任何分区策略都要考虑分区数变更的情况,防止造成数据倾斜。
共 3 条评论5