02 | 一篇文章带你快速搞定Kafka术语
02 | 一篇文章带你快速搞定Kafka术语
讲述:胡夕
时长11:15大小10.27M
小结
开放讨论
赞 63
提建议
精选留言(211)
- 胡夕置顶2019-06-11结尾处增加了一张图,提炼了02中讲到的Kafka概念和术语,希望能够帮助到你:)共 6 条评论145
- 明翼2019-06-06看了不少留言,大有裨益,算是总结。不从follower读几个原因:1,kafka的分区已经让读是从多个broker读从而负载均衡,不是MySQL的主从,压力都在主上;2,kafka保存的数据和数据库的性质有实质的区别就是数据具有消费的概念,是流数据,kafka是消息队列,所以消费需要位移,而数据库是实体数据不存在这个概念,如果从kafka的follower读,消费端offset控制更复杂;3,生产者来说,kafka可以通过配置来控制是否等待follower对消息确认的,如果从上面读,也需要所有的follower都确认了才可以回复生产者,造成性能下降,如果follower出问题了也不好处理展开共 14 条评论272
- 时光剪影2019-06-16整理一遍个人的理解: Kafka体系架构=M个producer +N个broker +K个consumer+ZK集群 producer:生产者 Broker:服务代理节点,Kafka服务实例。 n个组成一个Kafka集群,通常一台机器部署一个Kafka实例,一个实例挂了其他实例仍可以使用,体现了高可用 consumer:消费者 消费topic 的消息, 一个topic 可以让若干个consumer消费,若干个consumer组成一个 consumer group ,一条消息只能被consumer group 中一个consumer消费,若干个partition 被若干个consumer 同时消费,达到消费者高吞吐量 topic :主题 partition: 一个topic 可以拥有若干个partition(从 0 开始标识partition ),分布在不同的broker 上, 实现发布与订阅时负载均衡。producer 通过自定义的规则将消息发送到对应topic 下某个partition,以offset标识一条消息在一个partition的唯一性。 一个partition拥有多个replica,提高容灾能力。 replica 包含两种类型:leader 副本、follower副本, leader副本负责读写请求,follower 副本负责同步leader副本消息,通过副本选举实现故障转移。 partition在机器磁盘上以log 体现,采用顺序追加日志的方式添加新消息、实现高吞吐量展开
作者回复: 厉害!感觉比我写的简洁:)
共 13 条评论166 - 邋遢的流浪剑客2019-06-06如果允许follower副本对外提供读服务(主写从读),首先会存在数据一致性的问题,消息从主节点同步到从节点需要时间,可能造成主从节点的数据不一致。主写从读无非就是为了减轻leader节点的压力,将读请求的负载均衡到follower节点,如果Kafka的分区相对均匀地分散到各个broker上,同样可以达到负载均衡的效果,没必要刻意实现主写从读增加代码实现的复杂程度
作者回复: 是的。前些天在知乎上就这个问题也解答了一下,有兴趣可以看看:https://www.zhihu.com/question/327925275/answer/705690755
共 13 条评论91 - 卡特2020-04-17加入a主题有4个分区,消费者组有2个实例,发布应用的时候,会先新启动一个服务节点,加入消费组,通过重平衡分配到到至少1个最多2个分区,消费者的偏移量是 1,重新从0开始 2,拿到分配分区的上一个消费者偏移量? 如果按照文章说的,即偏移量为0,消息应该会重复消费; 如果拿到上一个消费者的偏移量则不会消息重复消费,具体过程又是怎样的? 求解惑,展开
作者回复: 整个故事是这样的:假设C1消费P0,P1, C2消费P2,P3。如果C1从未提交,C1挂掉,C2开始消费P0,P1,发现没有对应提交位移,那么按照C2的auto.offset.reset值决定从那里消费,如果是earliest,从P0,P1的最小位移值(可能不是0)开始消费,如果是latest,从P0, P1的最新位移值(分区高水位值)开始消费。但如果C1之前提交了位移,那么C1挂掉之后C2从C1最新一次提交的位移值开始消费。 所谓的重复消费是指,C1消费了一部分数据,还没来得及提交这部分数据的位移就挂了。C2承接过来之后会重新消费这部分数据。 我说清楚了吗:)
共 2 条评论49 - 永光2019-06-10为什么 Kafka 不像 MySQL 那样允许追随者副本对外提供读服务? 答:因为mysql一般部署在不同的机器上一台机器读写会遇到瓶颈,Kafka中的领导者副本一般均匀分布在不同的broker中,已经起到了负载的作用。即:同一个topic的已经通过分区的形式负载到不同的broker上了,读写的时候针对的领导者副本,但是量相比mysql一个还实例少太多,个人觉得没有必要在提供度读服务了。(如果量大还可以使用更多的副本,让每一个副本本身都不太大)不知道这样理解对不对?展开
作者回复: 我个人觉得是很不错的答案,自己也学到了一些:)
共 6 条评论42 - jacke2019-06-22胡老师: 还想问个分区的问题,比如一个topic分为0,1,2 个分区 写入0到9条消息,按照轮训分布: 0分区:0,1,2,9 1分区:3,4,5, 2分区:6,7,8 那对于消费端来说,不管是p2p点对点模式,还是push/sub模式来说, 如何保证消费端的读取顺序也是从0到9?因为0到9条消息是分布在3个 分区上的,同时消费者是主动轮训模式去读分区数据的, 有没有可能读到后面写的数据呢?比如先读到5在读到4? ps:刚开始学习,问题比较多,谅解展开
作者回复: 目前Kafka的设计中多个分区的话无法保证全局的消息顺序。如果一定要实现全局的消息顺序,只能单分区
共 7 条评论35 - 莫道不销魂2019-06-11老师,我想问下 1、 kafka是按照什么规则将消息划分到各个分区的? 2、既然同一个topic下的消息分布在不同的分区,那是什么机制将topic、partition、record关联或者说管理起来的?
作者回复: 1. 如果producer指定了要发送的目标分区,消息自然是去到那个分区;否则就按照producer端参数partitioner.class指定的分区策略来定;如果你没有指定过partitioner.class,那么默认的规则是:看消息是否有key,如果有则计算key的murmur2哈希值%topic分区数;如果没有key,按照轮询的方式确定分区。 2. 这个层级其实是逻辑概念。在物理上还是以日志段(log segment)文件的方式保存,日志段文件在内存中有对应的Java对象,里面关联了你说的这些。
共 2 条评论25 - (´田ω田`)2019-06-061、主题中的每个分区都只会被组内的一个消费者实例消费,其他消费者实例不能消费它。 2、假设组内某个实例挂掉了,Kafka 能够自动检测到,然后把这个 Failed 实例之前负责的分区转移给其他活着的消费者。 意思是1个分区只能同时被1个消费者消费,但是1个消费者能同时消费多个分区是吗?那1个消费者里面就会有多个消费者位移变量? 如果1个主题有2个分区,消费者组有3个消费者,那至少有1个消费者闲置?展开
作者回复: 在一个消费者组下,一个分区只能被一个消费者消费,但一个消费者可能被分配多个分区,因而在提交位移时也就能提交多个分区的位移。 针对你说的第二种情况,答案是:是的。有一个消费者将无法分配到任何分区,处于idle状态。
共 3 条评论22 - Happy2019-06-20主写从读无非就是为了减轻leader节点的压力,而kafka中数据分布相对比较均匀,所说的Follower从节点,实际上也是其他topic partition的Leader节点,所以在Follower可以读数据,那么会影响Follower节点上的做为Leader的partition的读性能,所以整体性能并没有提升,但是带来了主从数据同步延迟导致的数据不一致的问题
作者回复: 同意:)
共 3 条评论21 - 快跑2019-07-02老师,你好 假如只有一个Producer进程,Kafka只有一分区。Producer按照1,2,3,4,5的顺序发送消息,Kafka这个唯一分区收到消息一定是1,2,3,4,5么? Producer端,网络,数据格式等因素,会不会导致Kafka只有一个分区接收到数据顺序跟Producer发送数据顺序不一致
作者回复: 如果retries>0并且max.in.flight.requests.per.connection>1有可能出现消息乱序的情况
共 2 条评论15 - 莫道不销魂2019-07-02老师 ,一个分区的N个副本是在同个Broker中的吗,还是在不同的Broker中,还是说是随机的?
作者回复: 一个分区的N个副本一定在N个不同的Broker上。
共 5 条评论10 - FunnyCoder2019-12-23小白一枚 Kafka可以关闭重平衡吗?可不可在逻辑上新建一个消费者或者将failed消费者重启 而不是分配给其他消费者
作者回复: 使用standalone consumer就完全避免rebalance了。事实上很多主流大数据流处理框架(Spark、Flink)都是这么使用的
11 - 你好旅行者2019-06-07我之前在学习Kafka的时候也有过这个问题,为什么Kafka不支持读写分离,让从节点对外提供读服务? 其实读写分离的本质是为了对读请求进行负载均衡,但是在Kafka中,一个topic的多个Prtition天然就被分散到了不同的broker服务器上,这种架构本身就解决了负载均衡地问题。也就是说,Kafka的设计从一刻开始就考虑到了分布式的问题,我觉得这是Linkedln开发团队了不起的地方。 尽管如此,我觉得还有一个问题我没有想明白,如果Producer就是对某些broker中的leader副本进行大量的写入,或者Consumer就是对某些broker中的leader副本进行大量的拉取操作,那单台broker服务器的性能不还是成为了整个集群的瓶颈?请问老师,这种情况Kafka是怎么解决的呢?展开
作者回复: 只能是分散负载了,多做一些分区。
10 - 然行2019-06-06kafka客户端读操作是会移动broker中分区的offset,如果副本提供读服务,副本更变offset,再回同步领导副本,数据一致性就无法得到保障共 7 条评论10
- 风轻扬2020-04-27专栏过去这么久了。不知道还回不回被老师回答。老师,如果consumer一直不提交位移,会有什么影响?目前想到的是:当前consumer 实例宕机,后续消费该分区的消费者实例就只能遵从auto.reset.offset的指定了。除此之外还有其他问题吗?
作者回复: 多久都要认真回答! 确实就像你说的,没有提交位移的数据,自然也就无法获取之前消费进度。其他没有什么影响了~
8 - 云师兄2019-09-11分区数量一开始定义后,后面可以增加分区后,原来分区的数据应该不会迁移吧?分区数量可以减少吗?
作者回复: 不会自动迁移,需要你手动迁移。分区数不可以减少
8 - dbo2019-06-06Myaql中从追随者读取数据对server和client都没有影响,而Kafka中从追随者读取消息意味着消费了数据,需要标记该数据被消费了,涉及到做一些进度维护的操作,多个消费实例做这些操作复杂性比较高,如果可以从追随者读也可能会牺牲性能,这是我的理解,请老师指正。
作者回复: 我个人认为维护成本不高。Kafka中消费进度由clients端来操作,即消费者来决定什么时候提交位移,而且是提交到专属的topic上,与副本本身关联不大。实际上社区最近正在讨论是否允许follower副本提供读服务。不过我同意的是,follower副本提供读服务后会推高follower所在broker的磁盘读IO
共 3 条评论7 - 周小桥2019-06-06这里的术语介绍,在阿里一面的时候有被问到。 为什么副本不提供对外读? 我认为这个副本只是提供一个数据跟leader的同步,和当leader故障后能进行切换。还有消费者读取数据是根据offset去读取的,一份文件够了。展开
作者回复: Kafka不采用主从分离的讨论最近火起来了。如果要让follower抗读,需要解决很多一致性的问题,另外Kafka也不属于典型的读多写少场景,主从分离的优势不明显。
共 2 条评论7 - 蚊子2019-09-03请教一下老师:high water mark怎么理解?
作者回复: 在Kafka中你可以认为一个分区的HW表征了当前该分区下所有副本都已经保存了的消息的最大位移
共 2 条评论5