hadoop slaves的datanode无法自动启动问题求教

coffeewar 2014-09-23 12:21:42
问题:hadoop2.5.1,启动主节点的datanode,无法自动启动 slaves的datanode服务,可以到slave的机器手机启动 datanode。

环境:
三台虚拟机,系统ubuntu,ip(主机名)分别为: 192.168.153.141(master)、192.168.153.142(node1)、192.168.153.143(node2)

/etc/hosts 配置:


192.168.153.141 master
192.168.153.142 node1
192.168.153.143 node2

ssh都已安装且可无密码登录。

hadoop相关配置:
core-site.xml


hdfs-site.xml


mapred-site.xml


yarn-site.xml


slaves配置:


master机器通过 ${HADOOP_HOME}/sbin/hadoop-daemon.sh --script hdfs start namenode 启动namenode成功,可成功打开 http://master:50070。

master机器通过 ${HADOOP_HOME}/sbin/hadoop-daemon.sh --script hdfs start datanode启动datanode成功,输入jps命令如下:


输入 hdfs dfsadmin -report如下:


进入 node1或node2机器,输入jps命令没有发现datanode,按官网说是可以自动启动 slaves机器上的datanode的,或者是我理解错误?请指教。
...全文
522 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
coffeewar 2014-09-23
  • 打赏
  • 举报
回复
哦哦,果然,用 start-dfs.sh命令就可以启动slaves上的机器了。谢谢。
  • 打赏
  • 举报
回复
可以试试 sbin/hadoop-daemons.sh --hosts your_host_files --script hdfs start datanode 用户指定的your_host_files放在etc/hadoop/下面 不行的话可以去各个DataNode下执行 sbin/hadoop-daemon.sh --script hdfs start datanode
  • 打赏
  • 举报
回复
sbin/hadoop-daemon.sh --script hdfs start datanode 执行后只能启动当前节点
SG90_ICT 2014-09-23
  • 打赏
  • 举报
回复
可以看到datanode的log吗?

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧