spark跨集群读取数据并计算
有2个hdp集群,hdp1和hdp2,想让spark程序运行在hdp1上,读取hdp2上的数据,大神们有什么方案么?
目前尝试过把hdp2集群的hive-site.xml core-site.xml hdfs-site.xml放到hdp1上的一个spark的conf下,spark-sql可以访问,但是运行spark仅在local模式下可以运行,放在yarn上边,就会报java.net.UnknownHostException: xxxxxx(namenode HA的名字)