hadoop 2.6 安装 ScondaryNameNode 无法启动,也没有报错!!

GameOfKevin 2016-05-10 08:28:43
大神,我现在装Hadoop2.6.0,ScondaryNameNode一直起不来,日志也没有Scondary的,启动也没报错,好就纠结。然后我新建文件夹和导入文件都没有问题,不知道什么原因Scondary就是不能启动,哭,大神救命。
启动后进程:
17048 NameNode
16661 ResourceManager
这个是配置:
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:50090</value>
</property>

...全文
233 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
GameOfKevin 2016-05-11
  • 打赏
  • 举报
回复
引用 1 楼 zd_aqa 的回复:
hdfs-site.xml: <!--配置hdfs文件系统副本数--> <property> <name>dfs.replication</name> <value>3</value> </property> <!--指定hdfs文件系统的元数据存放目录--> <property> <name>dfs.namenode.name.dir</name> <value>/opt/bigdata/hadoopdata/dfs/name</value> </property> <!--指定hdfs文件系统的数据块存放目录--> <property> <name>dfs.datanode.data.dir</name> <value>/opt/bigdata/hadoopdata/dfs/data</value> </property> <!--配置hdfs的web管理地址--> <property> <name>dfs.http.address</name> <value>hadoop02:50070</value> </property> <!--配置secondayNamenode的web管理地址--> <property> <name>dfs.secondary.http.address</name> <value>hadoop03:50090</value> </property> <!--配置是否打开web管理--> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <!--指定hdfs文件系统权限是否开启--> <property> <name>dfs.permissions</name> <value>false</value> </property>
我看官网是用:dfs.namenode.secondary.http-address,为什么这里要用:dfs.secondary.http.address,这太纠结了。 官网地址:http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml dfs.namenode.secondary.http-address 0.0.0.0:50090 The secondary namenode http server address and port.
GameOfKevin 2016-05-11
  • 打赏
  • 举报
回复
引用 3 楼 zd_aqa 的回复:
哦,我还没注意,dfs.secondary.http.address应该是hadoop1的,dfs.namenode.secondary.http-address是hadoop2的吧,不过不影响,都能用啊。你看看是不是没配主机映射,找不到master
现在用旧的配置已经成功起来了,旧的和新的我看了下就是dfs.namenode.secondary.http-address 不一样,所以很纠结,为什么旧的配置就可以起来新的不行。
zd_aqa 2016-05-11
  • 打赏
  • 举报
回复
哦,我还没注意,dfs.secondary.http.address应该是hadoop1的,dfs.namenode.secondary.http-address是hadoop2的吧,不过不影响,都能用啊。你看看是不是没配主机映射,找不到master
zd_aqa 2016-05-10
  • 打赏
  • 举报
回复
hdfs-site.xml: <!--配置hdfs文件系统副本数--> <property> <name>dfs.replication</name> <value>3</value> </property> <!--指定hdfs文件系统的元数据存放目录--> <property> <name>dfs.namenode.name.dir</name> <value>/opt/bigdata/hadoopdata/dfs/name</value> </property> <!--指定hdfs文件系统的数据块存放目录--> <property> <name>dfs.datanode.data.dir</name> <value>/opt/bigdata/hadoopdata/dfs/data</value> </property> <!--配置hdfs的web管理地址--> <property> <name>dfs.http.address</name> <value>hadoop02:50070</value> </property> <!--配置secondayNamenode的web管理地址--> <property> <name>dfs.secondary.http.address</name> <value>hadoop03:50090</value> </property> <!--配置是否打开web管理--> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <!--指定hdfs文件系统权限是否开启--> <property> <name>dfs.permissions</name> <value>false</value> </property>

20,844

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧