求助:Call to localhost/127.0.0.1:9000 failed on connection exception

rinimalegebi123 2013-10-22 10:40:33
最近在用hadoop实现kmeans。

运行过程中出现Call to localhost/127.0.0.1:9000 failed on connection exception错误。

百度和google了一下,貌似很多人都遇到过这个问题,好像大部分人都是namenode 启动不正常导致的,重新格式化namenode之后能解决,但是,我格式化了无数遍了还是出现这个错误,别的方法也试了,都不管用,实在不知道怎么解决了


有没有遇到这个问题的大侠解决一下啊
...全文
40689 25 打赏 收藏 转发到动态 举报
写回复
用AI写文章
25 条回复
切换为时间正序
请发表友善的回复…
发表回复
huoxuba5112 2016-04-15
  • 打赏
  • 举报
回复
大神帮我看看什么原因
huoxuba5112 2016-04-15
  • 打赏
  • 举报
回复
16/04/15 15:00:42 WARN namenode.NameNode: Encountered exception during format: org.apache.hadoop.hdfs.qjournal.client.QuorumException: Unable to check if JNs are ready for formatting. 2 exceptions thrown: 172.20.20.182:8485: Call From bigdata1/172.20.20.182 to bigdata1:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused 172.20.20.183:8485: Call From bigdata1/172.20.20.182 to bigdata2:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused at org.apache.hadoop.hdfs.qjournal.client.QuorumException.create(QuorumException.java:81) at org.apache.hadoop.hdfs.qjournal.client.QuorumCall.rethrowException(QuorumCall.java:223) at org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager.hasSomeData(QuorumJournalManager.java:232) at org.apache.hadoop.hdfs.server.common.Storage.confirmFormat(Storage.java:884) at org.apache.hadoop.hdfs.server.namenode.FSImage.confirmFormat(FSImage.java:171) at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:937) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504) 16/04/15 15:00:42 FATAL namenode.NameNode: Failed to start namenode. org.apache.hadoop.hdfs.qjournal.client.QuorumException: Unable to check if JNs are ready for formatting. 2 exceptions thrown: 172.20.20.182:8485: Call From bigdata1/172.20.20.182 to bigdata1:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused 172.20.20.183:8485: Call From bigdata1/172.20.20.182 to bigdata2:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused at org.apache.hadoop.hdfs.qjournal.client.QuorumException.create(QuorumException.java:81) at org.apache.hadoop.hdfs.qjournal.client.QuorumCall.rethrowException(QuorumCall.java:223) at org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager.hasSomeData(QuorumJournalManager.java:232) at org.apache.hadoop.hdfs.server.common.Storage.confirmFormat(Storage.java:884) at org.apache.hadoop.hdfs.server.namenode.FSImage.confirmFormat(FSImage.java:171) at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:937) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504) 16/04/15 15:00:42 INFO util.ExitUtil: Exiting with status 1 16/04/15 15:00:42 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at bigdata1/172.20.20.182
qq_33148615 2016-04-12
  • 打赏
  • 举报
回复
在eclipse里面导入Nutch1.2程序包进行分布式爬虫,运行后出现以下错误: Exception in thread "main" java.io.IOException: Call to /192.168.1.1:9000 failed on local exception: java.io.EOFException at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) at org.apache.hadoop.ipc.Client.call(Client.java:743) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) at com.sun.proxy.$Proxy0.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:106) at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:207) at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:170) at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:82) at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378) [size=24px] at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66) at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390) at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196) at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95) at org.apache.nutch.crawl.Crawl.main(Crawl.java:94) Caused by: java.io.EOFException at java.io.DataInputStream.readInt(DataInputStream.java:392) at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:501) at org.apache.hadoop.ipc.Client$Connection.run(Client.java:446) [/size] 请各位大婶多多指教~~~~
qq_33148615 2016-04-12
  • 打赏
  • 举报
回复
在eclipse里面导入Nutch1.2程序包时出现一下错误:请各位多多指教 Exception in thread "main" java.io.IOException: Call to /192.168.1.1:9000 failed on local exception: java.io.EOFException at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) at org.apache.hadoop.ipc.Client.call(Client.java:743) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) at com.sun.proxy.$Proxy0.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:106) at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:207) at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:170) at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:82) at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378) [size=24px][size=24px] at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)[/size] at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390) at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196) at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95) at org.apache.nutch.crawl.Crawl.main(Crawl.java:94) Caused by: java.io.EOFException at java.io.DataInputStream.readInt(DataInputStream.java:392) at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:501) at org.apache.hadoop.ipc.Client$Connection.run(Client.java:446) [/size]
bo_hai 2016-03-31
  • 打赏
  • 举报
回复
我产生此问题的原因是: 1、hdfs 目录分配到一块新的磁盘上,启动后执行hdfs dfs -ls -R /,把上面的错误; 2、考虑产生此问题的原因:hdfs目录分配到一块新的磁盘上,没有进行格式化; 3、执行格式化后,问题解决。hdfs namenode -format
老李家的小二 2014-07-16
  • 打赏
  • 举报
回复
到底是啥子解决的喽,说一下嘛
z278718149 2014-03-27
  • 打赏
  • 举报
回复
请问大家都是怎么解决的呀,我的也出现了这个问题,弄了大半天也没解决呢
明日天涯yang 2013-11-05
  • 打赏
  • 举报
回复
问题已经解决,是代码的问题。非常感谢大家的帮助,尤其感谢版主的不厌其烦。
踩踩一哥 2013-10-26
  • 打赏
  • 举报
回复
看下你下的代码里有checkconnect这里,连的是不是localhost的hdfs
eft21 2013-10-25
  • 打赏
  • 举报
回复
将dfs.name.dir和dfs.data.dir对应的目录删除,重新format一遍试试
撸大湿 2013-10-25
  • 打赏
  • 举报
回复
引用 13 楼 rinimalegebi123 的回复:
[quote=引用 11 楼 tntzbzc 的回复:] 把NN和JK的LOG贴出来吧
斑竹你好,我运行矩阵相乘的程序是成功的,kmeans的代码是从http://blog.csdn.net/shizhixin/article/details/8968977下的,这个应该也是大家用的很多的一个代码,里面有几句conf.set("hadoop.job.ugi", "hadoop,hadoop");不知道这个是否必要?还有就是我的这个报错会不会是由代码引起的呢? 还望斑竹帮忙,谢谢[/quote] 只是一个权限判断,你去掉试一下就知道了
撸大湿 2013-10-25
  • 打赏
  • 举报
回复
引用 12 楼 rinimalegebi123 的回复:
[quote=引用 11 楼 tntzbzc 的回复:] 把NN和JK的LOG贴出来吧
不好意思 NN是指namenode吧?JK是什么?这些LOG在哪里?以前都没管过这些[/quote] 写错了,是JT,Job TRACKER Log在HADOOPHOME/logs/目录
明日天涯yang 2013-10-23
  • 打赏
  • 举报
回复
引用 11 楼 tntzbzc 的回复:
把NN和JK的LOG贴出来吧
斑竹你好,我运行矩阵相乘的程序是成功的,kmeans的代码是从http://blog.csdn.net/shizhixin/article/details/8968977下的,这个应该也是大家用的很多的一个代码,里面有几句conf.set("hadoop.job.ugi", "hadoop,hadoop");不知道这个是否必要?还有就是我的这个报错会不会是由代码引起的呢? 还望斑竹帮忙,谢谢
明日天涯yang 2013-10-22
  • 打赏
  • 举报
回复
引用 4 楼 tntzbzc 的回复:
HOST不对
如果HOST配置正确,不会出现CALL TO LOCALHOST/127.0.0.1:9000 这种字样
在所有结点输入hostname检查HOST

把你所有结点的
/etc/sysconfig/network
/etc/hosts
/etc/sysconfig/network-scripts/ifcfg-eth0
全部贴出来



















谢谢!!!麻烦了
撸大湿 2013-10-22
  • 打赏
  • 举报
回复
HOST不对
如果HOST配置正确,不会出现CALL TO LOCALHOST/127.0.0.1:9000 这种字样
在所有结点输入hostname检查HOST

把你所有结点的
/etc/sysconfig/network
/etc/hosts
/etc/sysconfig/network-scripts/ifcfg-eth0
全部贴出来
明日天涯yang 2013-10-22
  • 打赏
  • 举报
回复
引用 2 楼 tntzbzc 的回复:
检查你的/etc/sysconfig/network 中的HOSTNAME
检查你的/etc/hosts
更换HADOOP配置中所有的Localhost改成你的HOSTNAME

再试,如果不行贴Log,贴配置


还是不行。

配置:
core-site.xml

mapred-site.xml

cn14就是hostname
另外,我是在集群上配置的hadoop,一个namenode,两个datanode。
大神帮忙看下
撸大湿 2013-10-22
  • 打赏
  • 举报
回复
检查你的/etc/sysconfig/network 中的HOSTNAME 检查你的/etc/hosts 更换HADOOP配置中所有的Localhost改成你的HOSTNAME 再试,如果不行贴Log,贴配置
明日天涯yang 2013-10-22
  • 打赏
  • 举报
回复
自顶一下,在线等啊大侠们
明日天涯yang 2013-10-22
  • 打赏
  • 举报
回复
引用 11 楼 tntzbzc 的回复:
把NN和JK的LOG贴出来吧
不好意思 NN是指namenode吧?JK是什么?这些LOG在哪里?以前都没管过这些
撸大湿 2013-10-22
  • 打赏
  • 举报
回复
把NN和JK的LOG贴出来吧
加载更多回复(5)

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧