Hadoop 安装到集群后,执行hadoop命令始终出错

ThinkInAI 2017-12-15 11:17:47
各位大侠,
我安装Hadoop到集群后(一台master,2台slaves),启动后,我已经可以看到3个node都正常运行。
执行jps后,
17746 ResourceManager
32531 Jps
17863 NodeManager
17386 DataNode
17565 SecondaryNameNode

但是,我执行任何hdfs命令(比如hdfs dfsadmin -report),都报错
“report: Failed on local exception: org.apache.hadoop.ipc.RpcException: RPC response exceeds maximum data length; Host Details : local host is: "MASTER/172.18.214.155"; destination host is: "MASTER":9000; ”。

-----------------
补充,我已经google了类似问题,用了他们这个方法http://www.bigdatafarm.com/?p=422 修改了配置文件,重启了servers, hadoop系统,问题还是没有解决。
...全文
1204 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
zgycsmb 2017-12-20
  • 打赏
  • 举报
回复
没遇到过这种情况,
gamedev˚ 2017-12-17
  • 打赏
  • 举报
回复
在主节点上,可以使用
hadoop-daemon.sh start namenode
单独启动namenode时,查看日志
gamedev˚ 2017-12-17
  • 打赏
  • 举报
回复
你jps显示,nameNode没有启动成功,问题的关键不在`ipc.maximum.data.length`, 建议启动的时候 查看启动日志,看NameNode的启动日志中报什么错,贴出来 再进一步查看。 可以先检查集群环境,三台机器的/etc/hosts文件是否配置完整,通过hostname命令 查看各机器的主机名是否符合预期设定值

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧