社区
高性能WEB开发
帖子详情
CDH里的kafka 集群启动报错,zookeeper也是启动失败
薄荷不太凉
2022-06-29 16:03:38
kafka的报错
zookeeper的报错
查2181端口也没有启动
...全文
137
回复
打赏
收藏
CDH里的kafka 集群启动报错,zookeeper也是启动失败
[图片]
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
CDH
中重装
kafka
——清空之前产生的数据(data文件数据与
Zookeeper
中的数据)
如果在
CDH
中安装过
Kafka
后,后面需要重新安装则可以参考此篇博文。 一、删除
Kafka
产生的data 重新安装
kafka
,后面重新分配的
kafka
一直安装不成功,是因为停用时不会删除已经有点数据。所以需要注意删除 /var/local/
kafka
/data 下的数据文件,可以看这个路径下的文件: 二、删除
Kafka
在
Zookeeper
中产生的主题数据 首先先连接
Zookeeper
:
zookeeper
-client 然后因为我们
CDH
中配置
ZooKeeper
Root 时候填写过 “/” 与下图的 “/kafja” 两个路径,所以需要分别对应删除掉 zookeepe
ZooKeeper
未授权访问漏洞处理方法
ZooKeeper
未授权访问漏洞处理方法和重设setAcl,需要设置超级管理密码后,方可修改
kafka
开发及安装工具包
其包含了
kafka
开发及安装工具包,包括
kafka
_2.10-0.8.2.2、
kafka
lib.tar、scala-2.10.4、
zookeeper
-3.4.5-
cdh
5.4.5.tar等工具包。
大数据框架的部署
zookeeper
,
kafka
,storm,flume,spark的部署安装。安装之前要确认安装好了oracle jdk,如果系统自带OpenJDK,需要先卸载,可以参考
cdh
的安装文档
kafka
和storm依赖
zookeeper
,所以要先安装好
zookeeper
并
启动
之后才能
启动
storm和
kafka
。 另:文档提供的配置文件只提供说明,具体可以从随付的相应的配置文件中拷贝。
CDH
5.11安装文档
CDH
5.11.1安装教程 第一部分:基础软件安装 1.1
集群
规划 主机节点 服务 主机名称 硬件资源 172.30.5.243 namenode,
zookeeper
, HMaster,
kafka
,spark, elasticsearch master 内存:64GB 硬盘:7T 172.30.5.244 secorndaryNameNode,datanode,
zookeeper
,
kafka
, HRegionServer,spark, elasticsearch slave1 内容:32GB 硬盘:10T 172.30.5.245 datanode,
zookeeper
,
kafka
, HRegionServer,storm,spark, elasticsearch slave2 内容:32GB 硬盘:10T 172.30.5.246 datanode, HRegionServer,storm,spark, elasticsearch slave3 内容:32GB 硬盘:10T 172.30.5.247 datanode, HRegionServer,storm,spark, elasticsearch slave4 内容:32GB 硬盘:10T 1.2环境配置 1.2.1全局用户创建 创建hadoop用户:useradd hadoop 创建hadoop密码: passwd hadoop 按提示两次输入:hadoop 将hadoop用户加入sudu配置文件 [root@localhost ~]# chmod u+w /etc/sudoers [root@localhost ~]# vi /etc/sudoers 添加 hadoop ALL=(ALL) ALL
高性能WEB开发
25,985
社区成员
4,366
社区内容
发帖
与我相关
我的任务
高性能WEB开发
高性能WEB开发
复制链接
扫一扫
分享
社区描述
高性能WEB开发
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章