极客时间已完结课程限时免费阅读

24丨Kafka:性能监控工具之队列级监控及常用计数器解析

24丨Kafka:性能监控工具之队列级监控及常用计数器解析-极客时间

24丨Kafka:性能监控工具之队列级监控及常用计数器解析

讲述:高楼

时长23:59大小21.91M

在我看来队列服务器是最简单的一种组件了。因为队列给我们下手的机会实在是并不多。我们只是用它,如果想改变它就只能去改代码,其他的都只是配置问题。
在当前的市场中,Kafka 算是用得非常火的一个队列服务器了,所以今天,我选择它来做一些解读。
虽然我在前面一直在强调分析的思路,但在这一篇中,我打算换个思路,不是像以前那样,直接给你一个结论型的思维导图,而是一起来分析一个组件,让我们看看从哪里下手,来观察一个被分析对象的相关配置。

了解 Kafka 的基本知识

我们先看一下这张图,以便更好地了解一个队列服务器。
这是 Kafka 官网上的一个图。从这个图中可以看到,对 Kafka 来说,这就像一个典型的集线器。那它里面的结构是什么样子的呢?根据我的理解,我画了一个如下的示意图:
在这个图中,有三个 Broker,也就是三个集群节点。每个消息有一个 leader partition,还有两个 follower partition。我没有画更多的 Producer 和 Consumer、Consumer Group,是觉得线太多了容易乱。
因为 Producer 和 Consumer 肯定会从 leader partition 中读写数据,而 Kafka 也保证了 leader 在不同 broker 上的均衡,所以 Kafka 的集群能力很好。
我们再看一下消息是如何在 Kafka 中被存储的。
上图是 Kafka 数据的存储方式,也就是每个分区都是一直往后面加的。
我们再来看一下它的数据存储方式。
首先是目录:
drwxr-xr-x 2 root root 4096 Feb 7 23:39 test-0
drwxr-xr-x 2 root root 4096 Feb 7 01:34 test_perf-1
drwxr-xr-x 2 root root 4096 Feb 7 01:34 test_perf-4
Kafka 的目录是根据 topic 创建的,每个目录名中也包括一个 partition。比如上面名字中的 test_perf-1 就是 topic 名是 test_perf,partition 就是 1。
接着再来看下文件:
[root@node-2 test-2]# ll
total 10850656
-rw-r--r-- 1 root root 493128 Feb 9 14:14 00000000000000000000.index
-rw-r--r-- 1 root root 1073739646 Feb 9 14:14 00000000000000000000.log
-rw-r--r-- 1 root root 630504 Feb 9 14:14 00000000000000000000.timeindex
-rw-r--r-- 1 root root 443520 Feb 9 14:16 00000000000000240212.index
-rw-r--r-- 1 root root 1073727327 Feb 9 14:16 00000000000000240212.log
-rw-r--r-- 1 root root 551052 Feb 9 14:16 00000000000000240212.timeindex
-rw-r--r-- 1 root root 448840 Feb 9 14:18 00000000000000453584.index
-rw-r--r-- 1 root root 1073729759 Feb 9 14:18 00000000000000453584.log
-rw-r--r-- 1 root root 556920 Feb 9 14:18 00000000000000453584.timeindex
.........................
-rw-r--r-- 1 root root 12 Feb 9 13:14 leader-epoch-checkpoint
[root@node-2 test-2]#
有索引文件,有数据文件,也有时间索引文件,非常明显的三个后缀名。索引文件显然就是指向 message 在数据文件中的什么位置,而这些数据文件就是一个个的 Segment,也就是一段一段的。这些文件的大小受 server.properties 文件中的 log.segment.bytes 参数限制,默认为 1G。
要查到相应的 message 就要先查索引文件,找到 message 的位置;然后从 log 文件中找到具体的 message。
在这个逻辑中,Segment 的大小就很有讲究了,太细就会导致索引文件过大,查找索引费时间;太粗了就会导致查找得不够精准。那么该如何配置呢?也要通过性能测试才能知道。
有了这些信息之后,我们再看下 Kafka 高效的原因:
Kafka 直接使用 Linux 文件系统的 Cache 来高效缓存数据。
Kafka 采用 Linux Zero-Copy 技术提高发送性能(不懂 Linux Zero-copy 的请自行补课)。
Kafka 服务端采用的是 selector 多线程模式(从逻辑上理解,它和 Tomcat 的 NIO 类似,我就不单独画图了,以免占篇幅)。
Kafka 采用二分法找数据。
总体来说,就是一个 Java 的应用,直接使用文件系统和操作系统的特性实现了队列的高效应用场景。

配置文件

我们先来查看一下 Kafka 的配置文件中都有什么,为了简洁,在这里,我把一些注释以及和性能无关的配置删除了。当然如果你有兴趣的话,可以到 Kafka 的 config 目录中找到 server.properties 中,以查看这些内容。
############################# Socket Server Settings #############################
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
############################# Log Basics #############################
num.partitions=10
num.recovery.threads.per.data.dir=1
############################# Internal Topic Settings #############################
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
############################# Log Flush Policy #############################
log.flush.interval.messages=10000
log.flush.interval.ms=1000
############################# Log Retention Policy #############################
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
zookeeper.connection.timeout.ms=6000
############################# Group Coordinator Settings #############################
group.initial.rebalance.delay
其实配置文件并不多,对不对?从配置名称上也很容易知道它们和什么相关。这里比较重要的参数就是 Socket Server 相关的,以及和 log 相关的。
我觉得到了这里,这个逻辑就基本清楚了,对 Kafka 的性能优化也就有了大体的判断。

构建 Kafka 的性能优化思维导图

我们可以根据以上的知识画出如下所示的,Kafka 的基本优化点:
同样的,我把操作系统和 JDK 方面的优化当成独立的部分,在上图中只把 Kafka 相关的内容列出来。
有了上面的知识,也有了这个思维逻辑,那么就可以理出针对一个 Kafka 应用要干的事情:
先分析一下具体的应用场景,关键是 topic、partition 数量、message 大小。
确定要支撑的业务容量和时间长度。
分析架构中需要的 broker 量级、partition、Segment 等配置。这些配置应该是架构师给出的准确预估,如果不能给出,那只能靠我们,也就是做性能测试的人给出具体的结论了。

对组件的性能分析思路

我想告诉你的是对一个组件的性能分析思路。如果你有了下面这张图所示的思路,那至少可以覆盖大部分的性能问题了。这个思路就是:
对于 Kafka 这样的队列服务器来说,状态计数器是啥子呢?让我们看一下 Kafka 的一个 Grafana Dashboard。
从这几个图就能看得出来,最重要的是每秒产生了多少 message,以及消费时间间隔。这两个对我们来说是最重要的队列计数器了。
但是它们能不能告诉我们现在的队列服务器有没有瓶颈呢?显然是不能的。
对于队列来说,消息都是异步被消费者取走的。所以队列中要有保存消息的能力,但是保存多久呢?永远保存吗?显然不现实。但是如果保存得太短了,正常的业务都可能做不下去,所以,我们要制定策略,哪些 topic 是实时处理的,处理不完怎么办?内存多大,能保存多少消息,积压了怎么办?
所以对于队列服务器,只看上面的那几个计数器,我觉得过于片面。
我们前面提到的 grafana+prometheus 监控操作系统、MySQL 的 DashBoard 都有非常完整的数据,但是 Kafka 的 DashBoard 显然信息不够,不能判断它自己有没有问题。
操作系统的监控指标对 Kafka 来说,也是异常的重要。就像之前我说过的那样,操作系统是不可绕过的分析节点。所以所有要做性能测试和性能分析的人,首先要学的就是操作系统方面的知识。

示例

下面我们来看一个简单测试示例。

生产 10W 消息

在这个示例中,共生产 10W 的消息,每个消息大小是 2000 字节,每秒产生 5000 个消息。
[root@node-1 Kafka_2.13-2.4.0]# /home/zee/Kafka/Kafka_2.13-2.4.0/bin/Kafka-producer-perf-test.sh --topic test --num-records 100000 --record-size 2000 --throughput 5000 --producer-props bootstrap.servers=172.18.0.2:9092,172.19.0.14:9092,172.20.0.7:9092
24997 records sent, 4999.4 records/sec (9.54 MB/sec), 15.8 ms avg latency, 398.0 ms max latency.
25010 records sent, 5001.0 records/sec (9.54 MB/sec), 26.0 ms avg latency, 514.0 ms max latency.
25000 records sent, 5000.0 records/sec (9.54 MB/sec), 1.1 ms avg latency, 24.0 ms max latency.
100000 records sent, 4998.000800 records/sec (9.53 MB/sec), 11.03 ms avg latency, 514.00 ms max latency, 1 ms 50th, 52 ms 95th, 305 ms 99th, 501 ms 99.9th.
可以看到每秒有 9.53MB 的消息产生,平均响应时延是 11.03ms,最大时延是 514ms。

生产 100W 消息

在这个示例中,共生产 100W 的消息,每个消息大小是 2000 字节,每秒产生 5000 个消息。
[root@node-4 bin]# /home/zee/Kafka/Kafka_2.13-2.4.0/bin/Kafka-producer-perf-test.sh --topic test_perf --num-records 1000000 --record-size 2000 --throughput 5000 --producer-props bootstrap.servers=172.17.0.11:9092,172.19.0.14:9092,172.20.0.7:9092
24992 records sent, 4996.4 records/sec (9.53 MB/sec), 21.7 ms avg latency, 482.0 ms max latency.
25025 records sent, 5004.0 records/sec (9.54 MB/sec), 0.9 ms avg latency, 16.0 ms max latency.
........
25000 records sent, 5000.0 records/sec (9.54 MB/sec), 0.6 ms avg latency, 9.0 ms max latency.
25005 records sent, 5001.0 records/sec (9.54 MB/sec), 0.7 ms avg latency, 30.0 ms max latency.
1000000 records sent, 4999.625028 records/sec (9.54 MB/sec), 2.05 ms avg latency, 482.00 ms max latency, 1 ms 50th, 1 ms 95th, 16 ms 99th, 267 ms 99.9th.
可以看到每秒有 9.54MB 的消息产生,平均响应时延是 2.05ms,最大时延是 482ms。

生产 1000W 消息

在这个示例中,生产 1000W 消息,其他参数不变:
[root@node-4 bin]# /home/zee/Kafka/Kafka_2.13-2.4.0/bin/Kafka-producer-perf-test.sh --topic test_perf --num-records 10000000 --record-size 2000 --throughput 5000 --producer-props bootstrap.servers=172.17.0.11:9092,172.19.0.14:9092,172.20.0.7:9092
24992 records sent, 4998.4 records/sec (9.53 MB/sec), 22.7 ms avg latency, 480.0 ms max latency.
25015 records sent, 5002.0 records/sec (9.54 MB/sec), 0.8 ms avg latency, 13.0 ms max latency.
25005 records sent, 5000.0 records/sec (9.54 MB/sec), 0.7 ms avg latency, 21.0 ms max latency.
..........
25000 records sent, 5000.0 records/sec (9.54 MB/sec), 0.7 ms avg latency, 26.0 ms max latency.
25010 records sent, 5001.0 records/sec (9.54 MB/sec), 0.7 ms avg latency, 24.0 ms max latency.
10000000 records sent, 4999.900002 records/sec (9.54 MB/sec), 0.83 ms avg latency, 532.00 ms max latency, 1 ms 50th, 1 ms 95th, 4 ms 99th, 65 ms 99.9th.
从结果可以看到,每秒还是 9.54MB 大小的消息,平均时延 0.83ms,最大时延是 532ms。
来做一个图比对一下:
从这个图就明显看出生产的消息越少,平均响应时间越长。可见顺序写得越多,那每次写的平均时间就会越小,所以 Kafka 在大数据量的读写中会表现得非常好。

总结

严格来说,这一篇文章是为了告诉你一个逻辑,那就是对一个组件不了解的时候,如何用你的基础技术知识把对组件的性能优化方向整理出来,以及如何通过自己的基础知识来做一个非常合理的分析。
这个逻辑就是:
先了解这个组件的基本知识:包括架构、实现原理等信息。
再整理出这个组件的配置参数。
找到合适的全局监控工具。
做压力测试时给出明显的判断。
这是个大体的逻辑,当然这个逻辑还有一个前提,那就是你得有相应的基础知识,在 Kafka 的这个分析中,要有操作系统和 Java 的基础知识,在实操中还需要多找几个不懂的组件做些练习才能理解这个逻辑的真谛。
就我自己来说,我会找一个完全没有接触过的组件,从安装部署开始直到性能测试、瓶颈判断、优化分析,看看需要多长时间,我才能理解得了这个组件。
这种思维方式,给了我很多的安全感,就是遇到了没接触过的内容,也不至心慌气短。

思考题

最后给你留两道思考题吧,你觉得如何分析一个未知组件呢?Kafka 的分析逻辑又是什么?
欢迎你用自己的理解思考一下这两个问题,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 8

提建议

上一篇
23丨MySQL:数据库级监控及常用计数器解析(下)
下一篇
25丨SkyWalking:性能监控工具之链路级监控及常用计数器解析
unpreview
 写留言

精选留言(9)

  • 夜空中最亮的星
    2020-02-16
    听了这节课 思路清晰了

    作者回复: 多谢支持。能理顺思路就是最重要的。

    3
  • 董飞
    2020-02-16
    老师,请教下jmeter测性能时,聚合报告中有一个错误率,具体怎样的请求会被统计成错误?

    作者回复: 默认情况下,http的标准错误就会统计进去。

    共 2 条评论
    1
  • Geek_7869f6
    2021-04-22
    老师,消息中间件性能测试过程中建议开持久化不? 另外,可以出一期redis性能优化不。

    作者回复: 持久化开不开,取决于业务需求。这个不是技术能决定的。 这个专栏已更新完,不会再出新内容。redis可优化的不多,查查资料应该也可以搞定。

  • 修继伟
    2020-12-31
    老师 线程日志里出现大量的 waiting on condition 这个程序会有问题吗

    作者回复: 那就得把栈发给我看看了。这样描述过于平面了。

  • 雄鹰
    2020-10-27
    正好项目组要测试kafka的基准测试,派上用场了,感谢老师o(^o^)o

    作者回复: 感谢支持。

  • GeekS
    2020-07-01
    老师,请教下,对于kafka队列这种客户端sdk与服务器对接的应用,用kafka自带性能脚本kafka-producer-perf-test.sh只能做基准性能测试,但是对于多种业务混合场景下的性能测试,有推荐的性能工具吗

    作者回复: 也可以用jmeter做呀。有插件。

  • t6666
    2020-05-02
    感觉自己还有很多需要学习,如果是我拿到未知组件应该先去看他的文档然后理清楚运行逻辑然后再分析吧,后面那个,我觉得我还是滚去看书了

    作者回复: 未知组件,肯定是要先学习它的架构原理和使用,然后再分析的。

  • 月亮和六便士
    2020-04-25
    老师打开kafka-exporter 一堆的计数器,怎么确定哪个重要,哪个不重要

    作者回复: 没有重要不重要。取决于问题在哪。

  • Duke
    2020-02-28
    授人以鱼不如授人以渔!感谢老师,真的受益匪浅

    作者回复: 多谢支持。

    1