hadoop jar hadoop-mapreduce-examples-2.7.3.jar pi 5 5 报错的解决方法

xxjhgc302 2018-06-23 09:17:30
[haogc@hadoop11master mapreduce]$ hadoop jar hadoop-mapreduce-examples-2.7.3.jar pi 5 5
Number of Maps = 5
Samples per Map = 5
18/06/23 20:50:51 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Got error, status message , ack with firstBadLink as 192.168.2.201:50010
at org.apache.hadoop.hdfs.protocol.datatransfer.DataTransferProtoUtil.checkBlockOpStatus(DataTransferProtoUtil.java:140)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1359)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1262)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:448)
18/06/23 20:50:51 INFO hdfs.DFSClient: Abandoning BP-76969016-192.168.2.101-1529756078923:blk_1073741927_1103
18/06/23 20:50:51 INFO hdfs.DFSClient: Excluding datanode DatanodeInfoWithStorage[192.168.2.201:50010,DS-e08ff39b-530b-43a1-a981-1dc2739350b0,DISK]
Wrote input for Map #0

...全文
1301 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
五哥 2018-07-25
  • 打赏
  • 举报
回复
192.168.2.201:50010
192.168.2.101
做防火墙策略
-A INPUT -s 192.168.2.0/24 -p tcp -m state --state NEW -m tcp --dport 50010 -j ACCEPT
对192.168.2网段的都开放
xxjhgc302 2018-06-23
  • 打赏
  • 举报
回复
将master 上的和slave 所有节点上的防火墙都关闭了。
当然也可以做防火墙策略将端口开放
xxjhgc302 2018-06-23
  • 打赏
  • 举报
回复
在自己环境中的根本解决方法如下是

关闭防火墙

执行命令
service iptables stop
验证 service iptables status

关闭防火墙的自动启动执行
执行命令 chkconfig iptables off
验证 chkconfig --list | grep iptables

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧