启动hadoop集群时候遇到问题

在执行sbin/start-dfs.sh时候
第二台第三台机器显示java_home没配置
但是两台虚拟机的java_home均配置正确完成
下图是 /etc/profile里的java_home配置
下图是 hadoop-env.sh里的java_home配置
下图是执行sbin/start-dfs.sh的错误信息
求大佬指教
...全文
9361 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
达娃里氏 2020-08-18
  • 打赏
  • 举报
回复
大哥你的node2机器的JAVA_HOME明显不对啊,你多了一个下划线,如果你的jdk是从tar.gz里解压的,那末尾绝对不会有下划线
pezynd 2020-07-10
  • 打赏
  • 举报
回复
检查env文件是否配置了JAVA_HOME。
pezynd 2020-07-10
  • 打赏
  • 举报
回复
检查env文件是否配置了JAVA_HOME。
小羽Jary 2020-06-04
  • 打赏
  • 举报
回复
首先你的免密登录就没做好,其次去看一下hadoop-env.sh文件的第一行,是不是多了或者少了什么,最后检查每台机器上的java环境变量是否生效
  • 打赏
  • 举报
回复
补图hadoop-env.sh里的java_home配置

20,807

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧