(光速上手)Docker搭建kafka单机版

2024-02-29 09:58

本文主要是介绍(光速上手)Docker搭建kafka单机版,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

kafka运行依赖于zookeeper,所以要先搭建zookeeper!

1.启动zookeeper服务

docker run -d --name zookeeper -p 2181:2181 -t wurstmeister/zookeeper

2.启动kafka服务

记得修改命令中的zookeeper的ip地址和kafka所在的主机ip地址

docker run -d --name kafka  --publish 9092:9092 --link zookeeper  --env KAFKA_ZOOKEEPER_CONNECT=172.18.12.182:2181 --env KAFKA_ADVERTISED_HOST_NAME=172.18.12.182 --env KAFKA_ADVERTISED_PORT=9092  --volume /etc/localtime:/etc/localtime wurstmeister/kafka:latest
解释:
docker run -d --name kafka 
--publish 9092:9092 // 端口绑定
--link zookeeper // 连接zookeeper
--env KAFKA_ZOOKEEPER_CONNECT=172.18.12.182:2181 // 配置zookeeper的地址+ip
--env KAFKA_ADVERTISED_HOST_NAME=172.18.12.182 // 主机地址
--env KAFKA_ADVERTISED_PORT=9092 // kafka的ip
--volume /etc/localtime:/etc/localtime // 本地磁盘挂载
wurstmeister/kafka:latest // 镜像名字

3.测试

进入容器并且启动发送方和消费者
1.进入kafka容器

docker exec -it kafka /bin/bash

2.创建名为test的主题(topic)

bin/kafka-topics.sh --create --zookeeper 172.18.12.182:2181 --replication-factor 1 --partitions 1 --topic test

3.打开消费者—开始监听消费消息

bin/kafka-console-consumer.sh --bootstrap-server 172.18.12.182:9092 --topic test --from-beginning

4.新打开一个ssh窗口,进入容器,打开消息发送者,发送消息

kafka-console-producer.sh --broker-list 172.18.12.182:9092 --topic test

在这里插入图片描述

此时消费方已经能接受到发送方发的消息了,搭建成功!!!

在这里插入图片描述

附:搭建UI监控—kafka-eagle,颜值还可以哦~

在这里插入图片描述
1.下载安装包

wget https://github.com/smartloli/kafka-eagle-bin/archive/v1.3.7.tar.gz

2.解压并且修改配置文件conf/system-config.properties

配置zookeeper
kafka.eagle.zk.cluster.alias=cluster1
cluster1.zk.list=192.168.10.14:2181
配置端口
kafka.eagle.webui.port=10092
配置数据库
kafka.eagle.driver=com.mysql.jdbc.Driver
kafka.eagle.url=jdbc:mysql://rm-wz9p90b2992j8b4e2xo.mysql.rds.aliyuncs.com:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
kafka.eagle.username=k8sadmin
kafka.eagle.password=xxxxxxx

3.配置linux环境变量PATH

vi /etc/profile
#java home
export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL
export JAVA_HOME=/usr/java-jdk-home/jdk1.8.0_211
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar#kafka home
export KE_HOME=/huanglei/sofrware/kafka-eagle
export PATH=$PATH:$KE_HOME/bin:$JAVA_HOME/bin

4.授权并且启动,成功后会打印出用户名密码 url等

chmod 777 *
bin/ke.sh start stop 

5.登录(默认)

*用户名:admin 
*密  码:123456

在这里插入图片描述

这篇关于(光速上手)Docker搭建kafka单机版的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/758381

相关文章

如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件

《如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件》本文介绍了如何使用Docker部署FTP服务器和Nginx,并通过HTTP访问FTP中的文件,通过将FTP数据目录挂载到N... 目录docker部署FTP和Nginx并通过HTTP访问FTP里的文件1. 部署 FTP 服务器 (

解读docker运行时-itd参数是什么意思

《解读docker运行时-itd参数是什么意思》在Docker中,-itd参数组合用于在后台运行一个交互式容器,同时保持标准输入和分配伪终端,这种方式适合需要在后台运行容器并保持交互能力的场景... 目录docker运行时-itd参数是什么意思1. -i(或 --interactive)2. -t(或 --

Docker部署Jenkins持续集成(CI)工具的实现

《Docker部署Jenkins持续集成(CI)工具的实现》Jenkins是一个流行的开源自动化工具,广泛应用于持续集成(CI)和持续交付(CD)的环境中,本文介绍了使用Docker部署Jenkins... 目录前言一、准备工作二、设置变量和目录结构三、配置 docker 权限和网络四、启动 Jenkins

Debezium 与 Apache Kafka 的集成方式步骤详解

《Debezium与ApacheKafka的集成方式步骤详解》本文详细介绍了如何将Debezium与ApacheKafka集成,包括集成概述、步骤、注意事项等,通过KafkaConnect,D... 目录一、集成概述二、集成步骤1. 准备 Kafka 环境2. 配置 Kafka Connect3. 安装 D

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

docker如何删除悬空镜像

《docker如何删除悬空镜像》文章介绍了如何使用Docker命令删除悬空镜像,以提高服务器空间利用率,通过使用dockerimage命令结合filter和awk工具,可以过滤出没有Tag的镜像,并将... 目录docChina编程ker删除悬空镜像前言悬空镜像docker官方提供的方式自定义方式总结docker

本地搭建DeepSeek-R1、WebUI的完整过程及访问

《本地搭建DeepSeek-R1、WebUI的完整过程及访问》:本文主要介绍本地搭建DeepSeek-R1、WebUI的完整过程及访问的相关资料,DeepSeek-R1是一个开源的人工智能平台,主... 目录背景       搭建准备基础概念搭建过程访问对话测试总结背景       最近几年,人工智能技术

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加

Java中Springboot集成Kafka实现消息发送和接收功能

《Java中Springboot集成Kafka实现消息发送和接收功能》Kafka是一个高吞吐量的分布式发布-订阅消息系统,主要用于处理大规模数据流,它由生产者、消费者、主题、分区和代理等组件构成,Ka... 目录一、Kafka 简介二、Kafka 功能三、POM依赖四、配置文件五、生产者六、消费者一、Kaf

Kafka拦截器的神奇操作方法

《Kafka拦截器的神奇操作方法》Kafka拦截器是一种强大的机制,用于在消息发送和接收过程中插入自定义逻辑,它们可以用于消息定制、日志记录、监控、业务逻辑集成、性能统计和异常处理等,本文介绍Kafk... 目录前言拦截器的基本概念Kafka 拦截器的定义和基本原理:拦截器是 Kafka 消息传递的不可或缺