31 | 常见工具脚本大汇总
下载APP
关闭
渠道合作
推荐作者
31 | 常见工具脚本大汇总
2019-08-13 胡夕 来自北京
《Kafka核心技术与实战》
课程介绍
讲述:胡夕
时长14:33大小13.33M
你好,我是胡夕。今天我要跟你分享的主题是:Kafka 常见的脚本汇总。
命令行脚本概览
Kafka 默认提供了很多个命令行脚本,用于实现各种各样的功能和运维管理。今天我以 2.2 版本为例,详细地盘点下这些命令行工具。下图展示了 2.2 版本提供的所有命令行脚本。
从图中我们可以知道,2.2 版本总共提供了 30 个 SHELL 脚本。图中的 windows 实际上是个子目录,里面保存了 Windows 平台下的 BAT 批处理文件。其他的.sh 文件则是 Linux 平台下的标准 SHELL 脚本。
默认情况下,不加任何参数或携带 --help 运行 SHELL 文件,会得到该脚本的使用方法说明。下面这张图片展示了 kafka-log-dirs 脚本的调用方法。
有了这些基础的了解,我来逐一地说明这些脚本的用途,然后再给你详细地介绍一些常见的脚本。
我们先来说说 connect-standalone 和 connect-distributed 两个脚本。这两个脚本是 Kafka Connect 组件的启动脚本。在专栏第 4 讲谈到 Kafka 生态时,我曾说过社区提供了 Kafka Connect 组件,用于实现 Kafka 与外部世界系统之间的数据传输。Kafka Connect 支持单节点的 Standalone 模式,也支持多节点的 Distributed 模式。这两个脚本分别是这两种模式下的启动脚本。鉴于 Kafka Connect 不在我们的讨论范围之内,我就不展开讲了。
接下来是 kafka-acls 脚本。它是用于设置 Kafka 权限的,比如设置哪些用户可以访问 Kafka 的哪些主题之类的权限。在专栏后面,我会专门来讲 Kafka 安全设置的内容,到时候我们再细聊这个脚本。
下面是 kafka-broker-api-versions 脚本。这个脚本的主要目的是验证不同 Kafka 版本之间服务器和客户端的适配性。我来举个例子,下面这两张图分别展示了 2.2 版本 Server 端与 2.2 版本 Client 端和 1.1.1 版本 Client 端的适配性。
我截取了部分输出内容,现在我稍微解释一下这些输出的含义。我们以第一行为例:
Produce(0): 0 to 7 [usable: 7]
“Produce”表示 Produce 请求,生产者生产消息本质上就是向 Broker 端发送 Produce 请求。该请求是 Kafka 所有请求类型中的第一号请求,因此序号是 0。后面的“0 to 7”表示 Produce 请求在 Kafka 2.2 中总共有 8 个版本,序号分别是 0 到 7。“usable:7”表示当前连入这个 Broker 的客户端 API 能够使用的版本号是 7,即最新的版本。
请注意这两张图中红线部分的差异。在第一张图中,我们使用 2.2 版本的脚本连接 2.2 版本的 Broker,usable 自然是 7,表示能使用最新版本。在第二张图中,我们使用 1.1 版本的脚本连接 2.2 版本的 Broker,usable 是 5,这表示 1.1 版本的客户端 API 只能发送版本号是 5 的 Produce 请求。
如果你想了解你的客户端版本与服务器端版本的兼容性,那么最好使用这个命令来检验一下。值得注意的是,在 0.10.2.0 之前,Kafka 是单向兼容的,即高版本的 Broker 能够处理低版本 Client 发送的请求,反过来则不行。自 0.10.2.0 版本开始,Kafka 正式支持双向兼容,也就是说,低版本的 Broker 也能处理高版本 Client 的请求了。
接下来是 kafka-configs 脚本。对于这个脚本,我想你应该已经很熟悉了,我们在讨论参数配置和动态 Broker 参数时都提到过它的用法,这里我就不再赘述了。
下面的两个脚本是重量级的工具行脚本:kafka-console-consumer 和 kafka-console-producer。在某种程度上,说它们是最常用的脚本也不为过。这里我们暂时先跳过,后面我会重点介绍它们。
关于 producer 和 consumer,成组出现的还有另外一组脚本:kafka-producer-perf-test 和 kafka-consumer-perf-test。它们分别是生产者和消费者的性能测试工具,非常实用,稍后我会重点介绍。
接下来的 kafka-consumer-groups 命令,我在介绍重设消费者组位移时稍有涉及,后面我们来聊聊该脚本的其他用法。
kafka-delegation-tokens 脚本可能不太为人所知,它是管理 Delegation Token 的。基于 Delegation Token 的认证是一种轻量级的认证机制,补充了现有的 SASL 认证机制。
kafka-delete-records 脚本用于删除 Kafka 的分区消息。鉴于 Kafka 本身有自己的自动消息删除策略,这个脚本的实际出场率并不高。
kafka-dump-log 脚本可谓是非常实用的脚本。它能查看 Kafka 消息文件的内容,包括消息的各种元数据信息,甚至是消息体本身。
kafka-log-dirs 脚本是比较新的脚本,可以帮助查询各个 Broker 上的各个日志路径的磁盘占用情况。
kafka-mirror-maker 脚本是帮助你实现 Kafka 集群间的消息同步的。在专栏后面,我会单独用一讲的内容来讨论它的用法。
kafka-preferred-replica-election 脚本是执行 Preferred Leader 选举的。它可以为指定的主题执行“换 Leader”的操作。
kafka-reassign-partitions 脚本用于执行分区副本迁移以及副本文件路径迁移。
kafka-topics 脚本你应该很熟悉了,所有的主题管理操作,都是由该脚本来实现的。
kafka-run-class 脚本则颇为神秘,你可以用这个脚本执行任何带 main 方法的 Kafka 类。在 Kafka 早期的发展阶段,很多工具类都没有自己专属的 SHELL 脚本,比如刚才提到的 kafka-dump-log,你只能通过运行 kafka-run-class kafka.tools.DumpLogSegments 的方式来间接实现。如果你用文本编辑器打开 kafka-dump-log.sh,你会发现它实际上调用的就是这条命令。后来社区逐渐为这些重要的工具类都添加了专属的命令行脚本,现在 kafka-run-class 脚本的出场率大大降低了。在实际工作中,你几乎遇不上要直接使用这个脚本的场景了。
对于 kafka-server-start 和 kafka-server-stop 脚本,你应该不会感到陌生,它们是用于启动和停止 Kafka Broker 进程的。
kafka-streams-application-reset 脚本用来给 Kafka Streams 应用程序重设位移,以便重新消费数据。如果你没有用到 Kafka Streams 组件,这个脚本对你来说是没有用的。
kafka-verifiable-producer 和 kafka-verifiable-consumer 脚本是用来测试生产者和消费者功能的。它们是很“古老”的脚本了,你几乎用不到它们。另外,前面提到的 Console Producer 和 Console Consumer 完全可以替代它们。
剩下的 zookeeper 开头的脚本是用来管理和运维 ZooKeeper 的,这里我就不做过多介绍了。
最后说一下 trogdor 脚本。这是个很神秘的家伙,官网上也不曾出现它的名字。据社区内部资料显示,它是 Kafka 的测试框架,用于执行各种基准测试和负载测试。一般的 Kafka 用户应该用不到这个脚本。
好了,Kafka 自带的所有脚本我全部梳理了一遍。虽然这些描述看起来有点流水账,但是,有了这些基础的认知,我们才能更好地利用这些脚本。下面我就来详细介绍一下重点的脚本操作。
重点脚本操作
生产消息
生产消息使用 kafka-console-producer 脚本即可,一个典型的命令如下所示:
在这段命令中,我们指定生产者参数 acks 为 -1,同时启用了 LZ4 的压缩算法。这个脚本可以很方便地让我们使用控制台来向 Kafka 的指定主题发送消息。
消费消息
下面再来说说数据消费。如果要快速地消费主题中的数据来验证消息是否存在,运行 kafka-console-consumer 脚本应该算是最便捷的方法了。常用的命令用法如下:
注意,在这段命令中,我们指定了 group 信息。如果没有指定的话,每次运行 Console Consumer,它都会自动生成一个新的消费者组来消费。久而久之,你会发现你的集群中有大量的以 console-consumer 开头的消费者组。通常情况下,你最好还是加上 group。
另外,from-beginning 等同于将 Consumer 端参数 auto.offset.reset 设置成 earliest,表明我想从头开始消费主题。如果不指定的话,它会默认从最新位移读取消息。如果此时没有任何新消息,那么该命令的输出为空,你什么都看不到。
最后,我在命令中禁掉了自动提交位移。通常情况下,让 Console Consumer 提交位移是没有意义的,毕竟我们只是用它做一些简单的测试。
测试生产者性能
如果你想要对 Kafka 做一些简单的性能测试。那么不妨试试下面这一组工具。它们分别用于测试生产者和消费者的性能。
我们先说测试生产者的脚本:kafka-producer-perf-test。它的参数有不少,但典型的命令调用方式是这样的。
上述命令向指定主题发送了 1 千万条消息,每条消息大小是 1KB。该命令允许你在 producer-props 后面指定要设置的生产者参数,比如本例中的压缩算法、延时时间等。
该命令的输出值得好好说一下。它会打印出测试生产者的吞吐量 (MB/s)、消息发送延时以及各种分位数下的延时。一般情况下,消息延时不是一个简单的数字,而是一组分布。或者说,我们应该关心延时的概率分布情况,仅仅知道一个平均值是没有意义的。这就是这里计算分位数的原因。通常我们关注到 99th 分位就可以了。比如在上面的输出中,99th 值是 604ms,这表明测试生产者生产的消息中,有 99% 消息的延时都在 604ms 以内。你完全可以把这个数据当作这个生产者对外承诺的 SLA。
测试消费者性能
测试消费者也是类似的原理,只不过我们使用的是 kafka-consumer-perf-test 脚本,命令如下:
虽然输出格式有所差别,但该脚本也会打印出消费者的吞吐量数据。比如本例中的 1723MB/s。有点令人遗憾的是,它没有计算不同分位数下的分布情况。因此,在实际使用过程中,这个脚本的使用率要比生产者性能测试脚本的使用率低。
查看主题消息总数
很多时候,我们都想查看某个主题当前的消息总数。令人惊讶的是,Kafka 自带的命令竟然没有提供这样的功能,我们只能“绕道”获取了。所谓的绕道,是指我们必须要调用一个未被记录在官网上的命令。命令如下:
我们要使用 Kafka 提供的工具类 GetOffsetShell 来计算给定主题特定分区当前的最早位移和最新位移,将两者的差值累加起来,就能得到该主题当前总的消息数。对于本例来说,test-topic 总的消息数为 5500000 + 5500000,等于 1100 万条。
查看消息文件数据
作为 Kafka 使用者,你是不是对 Kafka 底层文件里面保存的内容很感兴趣? 如果是的话,你可以使用 kafka-dump-log 脚本来查看具体的内容。
如果只是指定 --files,那么该命令显示的是消息批次(RecordBatch)或消息集合(MessageSet)的元数据信息,比如创建时间、使用的压缩算法、CRC 校验值等。
如果我们想深入看一下每条具体的消息,那么就需要显式指定 --deep-iteration 参数,如下所示:
在上面的输出中,以竖线开头的就是消息批次下的消息信息。如果你还想看消息里面的实际数据,那么还需要指定 --print-data-log 参数,如下所示:
查询消费者组位移
接下来,我们来看如何使用 kafka-consumer-groups 脚本查看消费者组位移。在上一讲讨论重设消费者组位移的时候,我们使用的也是这个命令。当时我们用的是 --reset-offsets 参数,今天我们使用的是 --describe 参数。假设我们要查询 Group ID 是 test-group 的消费者的位移,那么命令如图所示:
图中的 CURRENT-OFFSET 表示该消费者当前消费的最新位移,LOG-END-OFFSET 表示对应分区最新生产消息的位移,LAG 列是两者的差值。CONSUMER-ID 是 Kafka 消费者程序自动生成的一个 ID。截止到 2.2 版本,你都无法干预这个 ID 的生成过程。如果运行该命令时,这个消费者程序已经终止了,那么此列的值为空。
小结
好了,我们小结一下。今天我们一起梳理了 Kafka 2.2 版本自带的所有脚本,我给出了常见的运维操作的工具行命令。希望这些命令对你操作和管理 Kafka 集群有所帮助。另外,我想强调的是,由于 Kafka 依然在不断演进,我们今天提到的命令的用法很可能会随着版本的变迁而发生变化。在具体使用这些命令时,你最好详细地阅读一下它们的 Usage 说明。
开放讨论
你在使用 Kafka 命令的过程中,曾经踩过哪些“坑”,或者说有哪些惨痛的经历呢?
欢迎写下你的思考和答案,我们一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得20元
生成海报并分享
赞 9
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
30 | 怎么重设消费者组位移?
下一篇
32 | KafkaAdminClient:Kafka的运维利器
精选留言(26)
- 玉剑冰锋2019-08-13要说坑遇到两个,这两个坑都是留言提问老师帮忙解答,非常感谢!第一个就是数据量过大导致重启单台kafka时间近一个小时才能恢复,通过调大num.recovery.threads.per.data.dir解决;第二个就是分区迁移,出现in progress或者failed状态,通过zk删除/controller来解决,测试环境测试没问题,生产出现同样问题,但是担心大量分区重新选举leader,所以一直没有试,不知道老师还有没有其他好办法
作者回复: 1. 第一个办法挺好的;2. 删除/controller有点狠,不如删除/admin/reassign_partitions
37 - 注定非凡2019-11-122.2版本提供了30多个Shell脚本 (1):connect-standalone:支持kafka Connect组件支持单节点Standalone模式 (2):connect-distributed:支持多节点的Distributed模式。 (3):kafka-acls:用于设置Kafka权限,如设置哪些用户可以访问哪些主题之类的权限。 (4):kafka-broker-api-versions:主要目的是验证不同Kafka版本之间服务器和客户端的适配性。 (5):kafka-configs:用于配置管理 (6):kafka-console-consumer: (7):kafka-console-producer: (8):kafka-producer-perf-test和kafka-consumer-perf-test :用于生产者和消费者的性能测试 (9):kafka-consumer-groups:消费者位移时多有涉及 (10):kafka-delegation-tokens:管理Delegation Token的,基于Delegation Token的认证是一种轻量级的认证机制,补充了现有的SASL认证机制。 (11):kafka-delete-records:用于删除Kafka的分区消息。 (12):kafka-dump-log:能够查看kafka消息文件的内容,包括消息的各种元数据信息 (13):kafka-log-dirs:可以帮助查询各个Broker上的各个日志路径的磁盘占用情况 (14):kafka-mirror-maker:可以帮助实现kafka集群间消息同步 (15):kafka-preferred-replica-election:执行Preferred Leader选举。他可以为指定的主题执行“换Leader”的操作。 (16):kafka-reassign-partitions:用于执行分区副本迁移以及副本文件路径迁移 (17):kafka-topics:所有主题管理操作,都是有该脚本来实现。 (18):kafka-run-class:可以用这个脚本执行任何带main方法的Kafka类。 (19):kafka-server-start和kafka-server-stop:启动和停止Kafka Broker进程 (20):kafka-streams-application-reset:用来给kafka-Streams应用程序重试位移,以便重新消费数据。 (21):kafka-verifiabel-producer和kafka-verifiable-consumer是用来测试生产者和消费者功能的。 (22):zookeeper开头的脚本是用来管理和运维Zookeeper的。展开12
- What for2019-08-31请问老师查看主题分区消息总数 run-class 脚本中的 --time 参数,-1 和 -2 分别代表什么意思?还有其他的取值么?谢谢!
作者回复: 没有其他取值了。-1表示latest,-2表示earliest
共 2 条评论10 - 大坏狐狸2020-03-19阅读到后面发现人变少了,应该是很多人没有坚持下来吧。我希望自己能看完共 1 条评论10
- 丁丁历险记2019-12-08where there is a shell there is a way7
- cricket19812019-08-13client id, consumer id, consumer group id这几个id作用和区别是什么?
作者回复: client id 主要用于区分JMX指标和日志中的不同consumer; consumer id 指的是member id,目前是Kafka自动生成的,对用户意义不大;group id是表示consumer group组id的,非常重要,必须要指定。
7 - cricket19812019-08-13broker-list和bootstrap-servers参数感觉用得很混乱啊,有什么规律吗?能否统一一下?
作者回复: 嗯嗯,确实是。因为是不同的人写的。你可以提一个KIP,然后把它们统一一下:)
7 - Geek_bb2020-05-23副本是一个消息还是多个消息打包? 这个问题困扰了很久,没有看到有提到,据我所知gemfire就是副本就是多个record,这样能够减少传输大小。 希望得到老师的解答。谢谢
作者回复: 副本是一个commit log,里面保存了多条消息。
2 - 蒙开强2019-08-13老师,你好,这个kafka的社区从哪里可以看呢,有时候看官网没有详细说明,比如我在官网看kafka幂等性,上面只有参数设定,并没有详细说明
作者回复: 主要是邮件组。
共 3 条评论3 - Geek_edc6122019-08-14老师,我最近线上集群遇到了一个奇怪的情况,部分topic设置的是3副本,但是所有分区都是只有一个isr,不知道这种情况是什么原因导致的?
作者回复: 确认下broker是否启动成功了吧
1 - ppd07052022-08-07 来自湖南可以用 kafka-get-offsets.sh 查看消费位置了
- ABC2022-03-30https://github.com/apache/kafka/tree/trunk/bin 最新版的kafka,大概提供了接近40个脚本。
- 189238144852021-12-14kafka-broker-api-versions怎么知道现在的各个请求是哪个版本,比如图中给出的是2.1和1.1版本的客户端支持的produce请求的版本,但是实际使用过程中,怎么判断当前client和server是处于不兼容的状态?
作者回复: 可以看下具体jar包的版本
- Geek_388a762021-05-11老师,最近项目用的kafka是0.11.0.3版本的,遇到一个问题: 在生产集群使用/kafka/bin/kafka-consumer-groups.sh --bootstrap-server master1:9092,master2:9092 --list这个命令没办法获取到消费者组 测试环境单机版又可以获取到, 请问下这是因为集群的原因吗? 项目是storm结合kafka的,kafka作为storm的spout,还是困惑这个命令使用是限制storm的api还是说环集群环境没效的原因。 非常感谢!展开
作者回复: 你先看看是不是用了老版本的consumer,那么需要使用--zookeeper来查询位移
- 雄鹰2020-11-13老师您好,我用的kafka是2.3.0版本,用 kafka-producer-perf-test.sh测试生产者的性能基准,请问这个版本还区分同步和异步的方式吗?在网上查了一下,有资料说新版本的都是异步的了,不再区分同步和异步?请老师帮忙确认一下,谢谢!
作者回复: 都是异步的,不区分同步异步
- James2020-07-04请问老师,邮件组是啥. 在官网上查使用说明,有时候仅仅只是参数说明;
作者回复: 是指users和dev两个邮件组
- J.Smile2020-07-01怎么打印出broker端所有的默认参数?
作者回复: Broker启动时会打印
- Action2020-06-01./kafka-console-consumer.sh --bootstrap-server 192.168.1.67:9092 --topic second --group second --from-beginning --consumer-property enable.auto.commit=false 老师您好,问个简单得问题,我使用上面的命令消费数据,就是整体hang住了,并没有消费,请问是什么原因呀?
作者回复: 这是首次执行吗?如果不是可能该topic的数据已经消费完了。另外看下second主题下真有数据可以消费吗?最后就是确认下Kafka集群的连通性
- 地下城勇士2020-05-20请问一下老师,kafka-connect有什么相关资料吗?
作者回复: 这方面的资料不多。网上的多是一些零星资料。不过你还是可以看看这个:https://docs.confluent.io/current/connect/index.html
- XThundering2019-09-25Error: Exception thrown by the agent:java.rmi.server.ExportException:Port alread in use,出现这个Exception,kafka 版本号2.2.1
作者回复: 端口已被占用,查一下吧