一文入门 Kafka

admin 2021年6月8日08:23:43评论44 views字数 4128阅读13分45秒阅读模式

一文入门 Kafka


Kafka 是由 LinkedIn 公司推出的一个高吞吐的分布式消息系统,通俗的说就是一个基于发布和订阅的消息队列,官网地址:https://kafka.apache.org/intro


应用场景

一文入门 Kafka


  • 异步解构:在上下游没有强依赖的业务关系或针对单次请求不需要立刻处理的业务;

  • 系统缓冲:有利于解决服务系统的吞吐量不一致的情况,尤其对处理速度较慢的服务来说起到缓冲作用;

  • 消峰作用:对于短时间偶现的极端流量,对后端的服务可以启动保护作用;

  • 数据流处理:集成 spark 做实事数据流处理。


Kafka 拓扑图(多副本机制)

一文入门 Kafka


一文入门 Kafka


由上图我们可以发现 Kafka 是分布式,同时对于每一个分区都存在多副本,同时整个集群的管理都通过 ZooKeeper 管理。


Kafka 核心组件

一文入门 Kafka


broker

Kafka 服务器,负责消息存储和转发;一 broker 就代表一个 Kafka 节点。一个 broker 可以包含多个 topic。

topic

消息类别,Kafka 按照 topic 来分类消息。

partition

topic 的分区,一个 topic 可以包含多个 partition,topic 消息保存在各个 partition 上;由于一个 topic 能被分到多个分区上,给 Kafka 提供给了并行的处理能力,这也正是 Kafka 高吞吐的原因之一。

partition 物理上由多个 segment 文件组成,每个 segment 大小相等,顺序读写(这也是 Kafka 比较快的原因之一,不需要随机写)。每个 Segment 数据文件以该段中最小的 offset ,文件扩展名为 .log。当查找 offset 的 Message 的时候,通过二分查找快找到 Message 所处于的 Segment 中。

一文入门 Kafka

offset

消息在日志中的位置,可以理解是消息在 partition 上的偏移量,也是代表该消息的唯一序号。

同时也是主从之间的需要同步的信息。

一文入门 Kafka

Producer

生产者,负责向 Kafka Broker 发消息的客户端。

Consumer

消息消者,负责消费 Kafka Broker 中的消息。

Consumer Group

消费者组,每个 Consumer 必须属于一个 group;(注意的是 一个分区只能由组内一个消费者消费,消费者组之间互不影响。)

ZooKeeper

管理 Kafka 集群,负责存储了集群 broker、topic、partition 等 meta 数据存储,同时也负责 broker 故障发现,partition leader 选举,负载均衡等功能。

一文入门 Kafka


服务治理

一文入门 Kafka


既然 Kafka 是分布式的发布/订阅系统,这样如果做的集群之间数据同步和一致性,Kafka 是不是肯定不会丢消息呢?以及宕机的时候如果进行 Leader 选举呢?

数据同步

在 Kafka 中的 Partition 有一个 leader 与多个 follower,producer 往某个 Partition 中写入数据是,只会往 leader 中写入数据,然后数据才会被复制进其他的 Replica 中。而每一个 follower 可以理解成一个消费者,定期去 leader 去拉去消息。而只有数据同步了后,kafka 才会给生产者返回一个 ACK 告知消息已经存储落地了。

ISR

在 Kafka 中,为了保证性能,Kafka 不会采用强一致性的方式来同步主从的数据。而是维护了一个:in-sync Replica 的列表,Leader 不需要等待所有 Follower 都完成同步,只要在 ISR 中的 Follower 完成数据同步就可以发送 ack 给生产者即可认为消息同步完成。同时如果发现 ISR 里面某一个 follower 落后太多的话,就会把它剔除。

具体流程如下:

一文入门 Kafka
一文入门 Kafka
一文入门 Kafka
一文入门 Kafka

上述的做法并无法保证 Kafka 一定不丢消息。 虽然 Kafka 通过多副本机制中最大限度保证消息不会丢失,但是如果数据已经写入系统 page cache 中但是还没来得及刷入磁盘,此时突然机器宕机或者掉电,那消息自然而然的就会丢失。

Kafka 故障恢复

一文入门 Kafka

Kafka 通过 ZooKeeper 连坐集群的管理,所以这里的选举机制采用的是 Zab(ZooKeeper 使用)。

  • 生产者发生消息给 leader,这个时候 leader 完成数据存储,突然发生故障,没有给 producer 返回 ack;

  • 通过 ZooKeeper 选举,其中一个 follower 成为 leader,这个时候 producer 重新请求新的 leader,并存储数据。


Kafka 为什么这么快

一文入门 Kafka


顺序写磁盘

Kafka 采用了顺序写磁盘,而由于顺序写磁盘相对随机写,减少了寻地址的耗费时间。(在 Kafka 的每一个分区里面消息是有序的。

Page Cache

Kafka 在 OS 系统方面使用了 Page Cache 而不是我们平常所用的 Buffer。Page Cache 其实不陌生,也不是什么新鲜事物。

一文入门 Kafka

我们在 Linux 上查看内存的时候,经常可以看到 buff/cache,两者都是用来加速 IO 读写用的,而 cache 是作用于读,也就是说,磁盘的内容可以读到 cache 里面这样,应用程序读磁盘就非常快;而 buff 是作用于写,我们开发写磁盘都是,一般如果写入一个 buff 里面再 flush 就非常快。而 Kafka 正是把这两者发挥了极致:Kafka 虽然是 scala 写的,但是依旧在 Java 的虚拟机上运行,尽管如此,Kafka 它还是尽量避开了 JVM 的限制,它利用了 Page cache 来存储,这样躲开了数据在 JVM 因为 GC 而发生的 STW。另一方面也是 Page Cache 使得它实现了零拷贝,具体下面会讲。

零拷贝

无论是优秀的 Netty 还是其他优秀的 Java 框架,基本都在零拷贝减少了 CPU 的上下文切换和磁盘的 IO。当然 Kafka 也不例外。零拷贝的概念具体这里不作太详细的复述,大致的给大家讲一下这个概念。

传统的一次应用程请求数据的过程

一文入门 Kafka

这里大致可以发传统的方式发生了 4 次拷贝,2 次 DMA 和 2 次 CPU,而 CPU 发生了 4 次的切换。(DMA 简单理解就是,在进行 I/O 设备和内存的数据传输的时候,数据搬运的工作全部交给 DMA 控制器,而 CPU 不再参与任何与数据搬运相关的事情)。

零拷贝的方式

一文入门 Kafka

通过优化我们可以发现,CPU 只发生了 2 次的上下文切换和 3 次数据拷贝。(Linux 系统提供了系统事故调用函数“sendfile()”,这样系统调用,可以直接把内核缓冲区里的数据拷贝到 socket 缓冲区里,不再拷贝到用户态)。

分区分段

我们上面也介绍过了,Kafka 采取了分区的模式,而每一个分区又对应到一个物理分段,而查找的时候可以根据二分查找快速定位。这样不仅提供了数据读的查询效率,也提供了并行操作的方式。

数据压缩

Kafka 对数据提供了:Gzip 和 Snappy 压缩协议等压缩协议,对消息结构体进行了压缩,一方面减少了带宽,也减少了数据传输的消耗。

Kafka 安装

一文入门 Kafka


安装 JDK

由于使用压缩包还需要自己配置环境变量,所以这里推荐直接用 yum 安装,熟悉查看目前 Java 的版本:

yum -y list Java* 

安装你想要的版本,这里我是 1.8:

yum install java-1.8.0-openjdk-devel.x86_64

查看是否安装成功:

Java -version 


安装 ZooKeeper

首先需要去官网下载安装包,然后解压:

tar -zxvf zookeeper-3.4.9.tar.gz

要做的就是将这个文件复制一份,并命名为:zoo.cfg,然后在 zoo.cfg 中修改自己的配置即可。
cp zoo_sample.cfg zoo.cfg  
vim zoo.cfg 
主要配置解释如下:

# ZooKeeper内部的基本单位,单位是毫秒,这个表示一个tickTime为2000毫秒,在 ZooKeeper的其他配置中,都是基于 tickTime 来做换算的  
tickTime=2000  
# 集群中的 follower 服务器 (F) 与 leader 服务器 (L) 之间初始连接时能容忍的最多心跳数(tickTime 的数量)。  
initLimit=10  
#syncLimit:集群中的follower服务器(F)与leader服务器(L)之间 请求和应答 之间能容忍的最多心跳数(tickTime的数量)  
syncLimit=5  
# 数据存放文件夹,zookeeper运行过程中有两个数据需要存储,一个是快照数据(持久化数据)另一个是事务日志  
dataDir=/tmp/zookeeper  
 ## 客户端访问端口  
clientPort=2181

配置环境变量:
vim ~/.bash_profile  
export ZK=/usr/local/src/apache-zookeeper-3.7.0-bin  
export PATH=$PATH:$ZK/bin  
export PATH  
// 启动  
zkServer.sh start
下面能看启动成功:

一文入门 Kafka
一文入门 Kafka

安装 Kafka

下载 Kafka:

https://www.apache.org/dyn/closer.cgi?path=/kafka/2.8.0/kafka-2.8.0-src.tgz

安装 Kafka:
tar -xzvf kafka_2.12-2.0.0.tgz
配置环境变量:

export ZK=/usr/local/src/apache-zookeeper-3.7.0-bin  
 export PATH=$PATH:$ZK/bin  
 export KAFKA=/usr/local/src/kafka  
 export PATH=$PATH:$KAFKA/bin

启动 Kafka:

nohup kafka-server-start.sh 自己的配置文件路径/server.properties &


一文入门 Kafka

大功告成!

文章来源:腾讯技术工程,点击查看原文


Kubernetes线下培训

一文入门 Kafka


本次培训在上海开班,基于最新考纲,通过线下授课、考题解读、模拟演练等方式,帮助学员快速掌握Kubernetes的理论知识和专业技能,并针对考试做特别强化训练,让学员能从容面对CKA认证考试,使学员既能掌握Kubernetes相关知识,又能通过CKA认证考试,学员可多次参加培训,直到通过认证。点击下方图片或者阅读原文链接查看详情。


一文入门 Kafka

本文始发于微信公众号(分布式实验室):一文入门 Kafka

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2021年6月8日08:23:43
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   一文入门 Kafkahttp://cn-sec.com/archives/393673.html

发表评论

匿名网友 填写信息