Hadoop ha 下启动spark
在spark-env.sh中配置了 HADOOP_CONF_DIR一节HADOOP_HOME
也把core-site.xml和hdfs-site.xml复制到了spark/conf中,在spark-defaults.conf文件中也追加了这两个文件的路径,依然报一下错误:
ERROR spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: java.net.UnknownHostException: hdfs-server