hadoop 9000端口不能绑定0.0.0.0地址

关雎水长 2018-11-22 07:57:48
hadoop core-site.xml 配置如图




监听端口如图:




由于9000端口绑定到了127.0.0.1这个回环地址上,导致其他电脑不能访问hdfs文件系统。现在怎么做可以向50070端口一样,绑定到0.0.0.0地址上。

该问题的系统配置为:虚拟机虚拟的CentOS 7 系统,虚拟机之间可以ping通,22、 50070等绑定在0.0.0.0的端口可以正常telnet通,物理机也可以ping通虚拟机,telnet通22、50070等绑定在0.0.0.0地址的端口。
...全文
804 2 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
HTMK_GT_MK 2019-12-05
  • 打赏
  • 举报
回复
虽然这个问题已经过去挺久的了,但是最近我也遇到了这个问题,解决了想回来回答一下。 我是参考了类似这样的一篇文章(具体已经找不到了 https://blog.csdn.net/renfengjun/article/details/25320043 ) 其中提到要将 /etc/hosts 文件中的 127.0.0.1 对应行中的 [i]主机名[/i] 去掉。 这样是有效的,可使 9000 端口绑定到 另外一个 本机ip, 但是我想补充一点的是, 另一个被绑定的本机ip 需要是 桥接模式 或者 Host-Only 模式下的 ip 地址。 如果绑定的是 NAT 模式下 IP 地址,其它虚拟机仍然是访问不了的。 如果您使用的是 NATHost-Only 双网卡 模式,需要保证 Host-Only 模式下的 IP 到 主机名 的映射需要在 NAT 模式的映射前,这是 hosts 文件决定的。 一个示例的 /etc/hosts 文件如下: 127.0.0.1 localhost # Host-Only 网卡 Static IP 192.168.56.5 vm1 192.168.56.6 vm2 # NAT 网卡 DHCP IP 10.0.2.5 vm1 10.0.2.6 vm2 最后,重启 dfs ( start-dfs.sh ).
SmallbenClock 2018-11-26
  • 打赏
  • 举报
回复
0.0.0.0也是个虚拟地址吧

20,848

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧