hadoop namenode 启动失败 请高手帮助

sunxylove 2014-04-07 11:56:13
准备学习一下hadoop,在搭建伪分布式环境时遇到困难,请高手相助。

start-all.sh启动hadoop后,使用jps查看进程,9582 SecondaryNameNode;10751 Jps;9671 JobTracker;9872 TaskTracker;9371 DataNode;5个进程启动了但是 namenode 进程没有启动,查看日志,信息如下:
2014-04-05 15:52:15,877 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Metrics system not started: Cannot locate configuration: tried hadoop-metrics2-namenode.properties, hadoop-metrics2.properties
2014-04-05 15:52:15,914 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: file:///
at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:164)
。。。。。。
相关配置信息如下:core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-1.2.1/tmp</value>
</property>

hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop-1.2.1/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop-1.2.1/hdfs/data</value>
</property>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>

/etc/hosts中的信息如下:
127.0.0.1 localhost
127.0.1.1 xylove #用户名
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

请高手帮助解答,不胜感激!
...全文
6321 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
NumenEarth 2016-09-07
  • 打赏
  • 举报
回复
@u010244138 是否解决了?我初学还是报这个错误 我的配置如下,文件夹的权限我也都修改了 chen@ubuntu-computer:hadoop$ cat /etc/hosts 127.0.0.1 localhost 192.168.1.111 ubuntu-computer 192.168.1.110 spark-slave2 192.168.1.103 spark-slave1 # The following lines are desirable for IPv6 capable hosts ::1 ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters cat etc/hadoop/core-site.xml
<?xml version="1.0" encoding="utf-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->
<!-- Put site-specific property overrides in this file. -->
<configuration> 
  <property> 
    <name>hadoop.tmp.dir</name>  
    <value>/home/chen/hadoop/tmp</value> 
  </property>  
  <property> 
    <name>io.file.buffer.size</name>  
    <value>131072</value> 
  </property>  
  <property> 
    <name>fs.default.name</name>  
    <value>hdfs://ubuntu-computer:9000</value> 
  </property>  
  <property> 
    <name>hadoop.proxyuser.root.hosts</name>  
    <value>*</value> 
  </property>  
  <property> 
    <name>hadoop.proxyuser.root.groups</name>  
    <value>*</value> 
  </property> 
</configuration>
ztwsl888 2016-06-08
  • 打赏
  • 举报
回复
这个主要是格式化命令错误导致:namenode 与-format之间应该空格开。
  • 打赏
  • 举报
回复
应该就是地址的问题吧。 主机端口。
fei19901119 2014-04-07
  • 打赏
  • 举报
回复
请问 hadoop执行hdfs namenode -format的时候,提示:错误: 找不到或无法加载主类 org.apache.hadoop.hdfs.server.namenode.NameNode 是什么问题啊?是不是我哪里配错了?
sunxylove 2014-04-07
  • 打赏
  • 举报
回复
还真是这样,成功解决,非常感谢!
wangjinyang_123 2014-04-07
  • 打赏
  • 举报
回复
<property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> 最好写成主机名,不要写localhost
wangjinyang_123 2014-04-07
  • 打赏
  • 举报
回复
引用 1 楼 fei19901119 的回复:
请问 hadoop执行hdfs namenode -format的时候,提示:错误: 找不到或无法加载主类 org.apache.hadoop.hdfs.server.namenode.NameNode 是什么问题啊?是不是我哪里配错了?
找不到或无法加载主类最可能的原因是权限问题,先仔细检查一下你的所有的文件是不是属于你所创建的用户的,如果没有错误再查看Hadoop中的namenode 的log,里面会说明是什么错误。

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧