社区
Spark
帖子详情
datanode已经启动但是文件夹data文件夹下没有current
crazyywb
2018-07-31 06:34:04
去看进程显示datanode已经启动 文件夹也有但是里面没有current 启动时还出了WARNING: /root/apps/hadoop-3.0.3/logs does not exist. Creating. namenode开启后文件夹正常
...全文
1457
1
打赏
收藏
datanode已经启动但是文件夹data文件夹下没有current
去看进程显示datanode已经启动 文件夹也有但是里面没有current 启动时还出了WARNING: /root/apps/hadoop-3.0.3/logs does not exist. Creating. namenode开启后文件夹正常
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
初步
启动
data
node
成功,但是
data
文件夹
没有
生成
Current
首先明确以下,我的问题不同于 多数问题(统一
启动
集群时,
data
code 无法
启动
的问题。) 如标题所示,本文问题所指:《成功
启动
data
node
(hadoop-daemon.sh start
data
node
). 也成功生成
文件夹
/root/hdp
Data
/
data
/. 但是
没有
生成
current
文件夹
》。 也就是这个
data
node
并
没有
加入到Name
node
同个集群 我的环境: 配置机器: A(name
node
),/root/hdp
Data
/name/
current
/* 成...
云服务器搭建Hadoop集群
Data
Node
下
没有
current
文件夹
云服务器搭建Hadoop集群
Data
Node
下
没有
current
文件夹
搭建过程遇到情况说明: 购买云服务器搭建Hadoop集群和VM虚拟机搭建不一样在于像服务器有公网IP和内网IP,所以在配置hosts文件的时候本机hostname绑定内网IP,其他hostname绑定公网IP,即: 内网IP地址 你的hostname 公网IP地址 其他hostname 通俗讲就是: big
data
111配置hosts big
data
111内网IP big
data
111 big
data
112公网IP big
data
112
Hadoop下jps
没有
data
node
,且
data
文件夹
没有
current
首先,我们再配置好hadoop后,利用 ./bin/hdfs name
node
-format 格式化一下name
node
,再 $ ./sbin/start-dfs.sh $ jps 开启之后,发现
没有
data
node
,按照网上的方法,却发现我的tmp/dfs/
data
下面
没有
任何文件,而tmp/hdfs/name/下面有
current
,所以很是苦恼。 后来查询日志得知logs/下: vim ...
Hadoop
启动
后发现
data
node
没有
启动
,
data
下
没有
current
文件夹
打开usr/hadoop/hdfs/name,发现里面有
current
文件夹
,但usr/hadoop/hdfs/
data
下空空如也。期间并无报错,然后用start-dfs.sh再次
启动
Hadoop,也
没有
报错,但用jps一看,
data
node
还是没
启动
起来。把usr/hadoop/tmp整个
文件夹
删除,再把usr/hadoop/hdfs/name下的文件也全部删除,再次运行。我又想到是不是SSH的问题,我使用的是免密登录,检查一番之后发现也并无异常。意思是我的
data
node
根本
没有
生成日志。
Hadoop
启动
时,
没有
启动
Data
Node
Hadoop
启动
时,
没有
启动
Data
Node
1、起缘2、原因3、解决办法3.1 删除 dfs
文件夹
(dfs
文件夹
中
没有
重要的数据)3.2 复制 clusterID(dfs
文件夹
中有着重要的数据)4、总结 1、起缘 有时候Hadoop没关闭就格式化Name
Node
,经常会出现
没有
启动
Data
Node
的情况 2、原因 当我们使用 hadoop name
node
-format 格式化 Name
Node
时,会在 Name
Node
数据
文件夹
(这个
文件夹
为自己配置文件中 dfs.name.dir 的路径)
Spark
1,258
社区成员
1,168
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章