Hadoop ha 下启动spark

qiaotongzxcv 2019-01-09 06:09:13
在spark-env.sh中配置了 HADOOP_CONF_DIR一节HADOOP_HOME
也把core-site.xml和hdfs-site.xml复制到了spark/conf中,在spark-defaults.conf文件中也追加了这两个文件的路径,依然报一下错误:


ERROR spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: java.net.UnknownHostException: hdfs-server
...全文
25 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧