hahoop2运行wordcount出错,请问大神们怎么解决?

romanitc 2015-08-10 12:33:12
小弟刚学hadoop,运行第一个mapreduce就出错了

hdfs://itcast01/test/下有个wordcount.txt文件,内空如下:
hello a
hello a
hello b
hello b
hello c
hello a

命令如下:
hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount hdfs://itcast01/test/wordcount hdfs://itcast01/test/wordcountout

报错信息如下:
15/08/09 09:20:56 ERROR security.UserGroupInformation: PriviledgedActionException as:root (auth:SIMPLE) cause:java.net.ConnectException: Call From itcast01/192.168.0.108 to itcast01:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
java.net.ConnectException: Call From itcast01/192.168.0.108 to itcast01:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:783)
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:730)
at org.apache.hadoop.ipc.Client.call(Client.java:1351)
at org.apache.hadoop.ipc.Client.call(Client.java:1300)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206)
at com.sun.proxy.$Proxy9.getFileInfo(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:186)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy9.getFileInfo(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:651)
at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:1679)
at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:1106)
at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:1102)
at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1102)
at org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:1397)
at org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.checkOutputSpecs(FileOutputFormat.java:145)
at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:456)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:342)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1268)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1265)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1265)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1286)
at org.apache.hadoop.examples.WordCount.main(WordCount.java:84)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:72)
at org.apache.hadoop.util.ProgramDriver.run(ProgramDriver.java:144)
at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:74)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
Caused by: java.net.ConnectException: Connection refused
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:739)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:529)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:493)
at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:547)
at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:642)
at org.apache.hadoop.ipc.Client$Connection.access$2600(Client.java:314)
at org.apache.hadoop.ipc.Client.getConnection(Client.java:1399)
at org.apache.hadoop.ipc.Client.call(Client.java:1318)
... 40 more
...全文
265 11 打赏 收藏 转发到动态 举报
写回复
用AI写文章
11 条回复
切换为时间正序
请发表友善的回复…
发表回复
岁月的拓荒者 2015-08-14
  • 打赏
  • 举报
回复
引用 6 楼 romantic_PK 的回复:
[quote=引用 5 楼 hyz301 的回复:]
这个问题应该是没有启动yarn的结果。错误提示让你参考:http://wiki.apache.org/hadoop/ConnectionRefused
官方给解释中有如下描述:
Unless there is a configuration error at either end, a common cause for this is the Hadoop service isn't running.
除非在任一端的配置存在错误,否则一个通常的原因是Hadoop的服务没有运行。
请问一下大神,你在怎么在官网找到
“Unless there is a configuration error at either end, a common cause for this is the Hadoop service isn't running.”这个解释的呀?[/quote]
看图,在你的错误日志里就能看到
romanitc 2015-08-11
  • 打赏
  • 举报
回复
昨晚回去尝试一下,然后又可以正常运行wordcount了,可能真的是服务没有启动完全的原因。
romanitc 2015-08-11
  • 打赏
  • 举报
回复
引用 4 楼 w574717155 的回复:
[quote=引用 3 楼 romantic_PK 的回复:] 但是我yarn服务没有开启,会不会这个原因导致不能正常运行wordcount
mapreduce框架在hadoop2是在yarn基础上的。 hadoop1是的jobtracker和tasktracker。 你把yarn启动试试[/quote]Thanks
romanitc 2015-08-11
  • 打赏
  • 举报
回复
引用 5 楼 hyz301 的回复:
这个问题应该是没有启动yarn的结果。错误提示让你参考:http://wiki.apache.org/hadoop/ConnectionRefused 官方给解释中有如下描述: Unless there is a configuration error at either end, a common cause for this is the Hadoop service isn't running. 除非在任一端的配置存在错误,否则一个通常的原因是Hadoop的服务没有运行。
请问一下大神,你在怎么在官网找到 “Unless there is a configuration error at either end, a common cause for this is the Hadoop service isn't running.”这个解释的呀?
岁月的拓荒者 2015-08-11
  • 打赏
  • 举报
回复
这个问题应该是没有启动yarn的结果。错误提示让你参考:http://wiki.apache.org/hadoop/ConnectionRefused 官方给解释中有如下描述: Unless there is a configuration error at either end, a common cause for this is the Hadoop service isn't running. 除非在任一端的配置存在错误,否则一个通常的原因是Hadoop的服务没有运行。
夜无边CN 2015-08-11
  • 打赏
  • 举报
回复
引用 3 楼 romantic_PK 的回复:
但是我yarn服务没有开启,会不会这个原因导致不能正常运行wordcount
mapreduce框架在hadoop2是在yarn基础上的。 hadoop1是的jobtracker和tasktracker。 你把yarn启动试试
ZhouSanduo18 2015-08-11
  • 打赏
  • 举报
回复
主要是yarn没开启。
john_QQ:2335298917 2015-08-11
  • 打赏
  • 举报
回复
应该是服务没有起好
夜无边CN 2015-08-10
  • 打赏
  • 举报
回复
hadoop配置的有问题吧。看一下你的服务都正常起来了没?
romanitc 2015-08-10
  • 打赏
  • 举报
回复
但是我yarn服务没有开启,会不会这个原因导致不能正常运行wordcount
romanitc 2015-08-10
  • 打赏
  • 举报
回复
namenode、datanode都正常启动了,

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧