搭建的spark集群不能访问50070端口?

不努力谁会可怜你? 2018-12-19 05:07:11

配置:centos7、jdk1.7、hadoop2.4.1、三台spark虚拟机(spark02,spark03,spark04).其中spark02:有datanode,namenode,screndnode,jps。这里老师的有datanode而我没有。其它两台都有jps,datanode














...全文
363 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
其实我上面回答的不对。。 解决方法是把之前生成的数据节点删除重新启动初始化节点就行了。。
  • 打赏
  • 举报
回复
在hdfs-site.xml里加上对外访问的端口:

<property>
<name>dfs.http.address</name>
<value>0.0.0.0:50070</value>
</property>

1,274

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧