您现在的位置是:首页 > 技术人生 > 服务器相关服务器相关
Ubuntu 20.04安装kafka_2.11-2.2.1集群
高晓波2021-09-23【服务器相关】人已围观
简介kafka安装需要zookeeper和jdk的支持。本篇不再赘述这两个软件安装。
zookeeper安装可以参照:《Ubuntu 20.04 安装zookeeper 3.5.9 集群》
此次安装集群的三台机器是vm-13、vm
kafka安装需要zookeeper和jdk的支持。本篇不再赘述这两个软件安装。
zookeeper安装可以参照:《Ubuntu 20.04 安装zookeeper 3.5.9 集群》
此次安装集群的三台机器是vm-13、vm-14、vm-15。
(1)修改每台机器broker id,看官方注释可知,集群中的每个broker id需要唯一。
(2)修改日志位置
(3)修改zookeeper连接信息
将修改好的配置文件发送到其他2台kafak机器上,并不要忘记修改broker.id。
修改kafka目录归属
我们连接zookeeper,查看brokers节点信息,发现三台kafka id已经正确写入了
(1)创建topic
zk上查看刚刚创建的topic
(2)启动控制台producer,为了方便直观的测试,我在vm-13这台机器启动producer
(3)启动控制台consumer,为了方便直观的测试,我在vm-14这台机器启动consumer
在vm-13这台机器的控制台窗口中发送消息,验证vm-14中启动的消费端是否可以正常收到消息。
zookeeper安装可以参照:《Ubuntu 20.04 安装zookeeper 3.5.9 集群》
此次安装集群的三台机器是vm-13、vm-14、vm-15。
1、下载安装包
sudo wget https://archive.apache.org/dist/kafka/2.2.1/kafka_2.11-2.2.1.tgz
2、解压kafka到/user/local目录下
sudo tar -zxvf /usr/local/src/kafka_2.11-2.2.1.tgz -C /usr/local/
创建日志文件夹
sudo mkdir /usr/local/kafka_2.11-2.2.1/logs
3、修改配置文件server.properties
(1)修改每台机器broker id,看官方注释可知,集群中的每个broker id需要唯一。
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0
(2)修改日志位置
log.dirs=/usr/local/kafka_2.11-2.2.1/logs
(3)修改zookeeper连接信息
#我这里三台zookeeper主机名是vm-10,vm-11,vm-12,已在host文件修改ip映射
zookeeper.connect=vm-10:2181,vm-11:2181,vm-12:2181
将修改好的配置文件发送到其他2台kafak机器上,并不要忘记修改broker.id。
4、创建kafka用户组、用户
养成良好的操作习惯,我们创建kafka的运行用户
sudo groupadd kafka
sudo useradd -g kafka kafka
修改kafka目录归属
sudo chgrp -R kafka kafka_2.11-2.2.1/
sudo chown -R kafka kafka_2.11-2.2.1/
5、启动kafak,三台机器依次启动。
#以kafka用户启动
sudo su - kafka -c './bin/kafka-server-start.sh -daemon config/server.properties'
我们连接zookeeper,查看brokers节点信息,发现三台kafka id已经正确写入了
[zk: localhost:2181(CONNECTED) 0] ls /
[admin, brokers, cluster, config, consumers, controller, controller_epoch, hbase, isr_change_notification, latest_producer_id_block, log_dir_event_notification, zookeeper]
[zk: localhost:2181(CONNECTED) 1] ls /brokers/
Path must not end with / character
[zk: localhost:2181(CONNECTED) 2] ls /brokers
[ids, seqid, topics]
[zk: localhost:2181(CONNECTED) 3] ls /brokers/ids
[0]
[zk: localhost:2181(CONNECTED) 4] ls /brokers/ids
[0, 1]
[zk: localhost:2181(CONNECTED) 5] ls /brokers/ids
[0, 1, 2]
[zk: localhost:2181(CONNECTED) 6]
6、测试kafka是否正常工作
(1)创建topic
cd /usr/local/kafka_2.11-2.2.1
./bin/kafka-topics.sh --create --zookeeper vm-10:2181 --replication-factor 1 --partitions 1 --topic hello_kafka
zk上查看刚刚创建的topic
[zk: localhost:2181(CONNECTED) 8] ls /config/topics
[hello_kafka]
(2)启动控制台producer,为了方便直观的测试,我在vm-13这台机器启动producer
./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic hello_kafka
(3)启动控制台consumer,为了方便直观的测试,我在vm-14这台机器启动consumer
./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic hello_kafka --from-beginning
在vm-13这台机器的控制台窗口中发送消息,验证vm-14中启动的消费端是否可以正常收到消息。
Tags:kafka
很赞哦! ()
相关文章
随机图文
-
制作pve引导盘---U盘安装Proxmox VE(一)
年前搞了个星际蜗牛B款机箱,利用手头之前海淘dq77kb组装了个四盘位的Server。 -
pve添加新硬盘---U盘安装Proxmox VE(二)
上一篇《U盘安装Proxmox VE(一)》制作好启动盘后,插入U盘,设置bios从U盘启动,开始安装pve。选择Install Proxmox VE后,不再报错no cdrom found,但是自检过后出现白屏,鼠标可以正常移动,鼠标右击有菜单,就是看不到agree选项, -
创建redis集群,第二次踩坑,Sorry, can't connect to node
这已经是第二次遇到这个问题,只记得第一次花了很长时间才解决,却忘了怎么解决的,悲催! 网上找的答案都是各种复制,千篇一律。 现在记下来,防止忘记! 第一次是因为redis设置了密码,单机连接都OK,但是创建集群就报错Sorry, can't connect to node -
centos7 安装hadoop 3.1.3集群
本文记录Centos7 下安装hadoop 3.1.3集群过程。