eclipse开发spark应用程序 spark2.1.0 导入哪个jar包?

m0_37621648 2017-02-22 08:44:31
最新的spark2.1.0环境应该导入哪个jar包呀,之前版本的spark有lib目录下有spark-assembly-1.3.0-hadoop2.5.0-cdh5.3.0.jar,但是spark2.0没有这个目录啊,那应该导入哪个jar?谢大神指点
...全文
3268 5 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
qq_20661211 2017-03-30
  • 打赏
  • 举报
回复
spark core 这个jar
long601866422 2017-03-16
  • 打赏
  • 举报
回复
加载C:\spark-2.0.1-bin-hadoop2.7\jars目录
whj2639680927 2017-03-15
  • 打赏
  • 举报
回复
我也有这样的困惑,请各位大神指点,先谢了。
  • 打赏
  • 举报
回复
jars 就是jar包们的意思 点起来拿自己需要用的就可以了
m0_37621648 2017-02-22
  • 打赏
  • 举报
回复

我现在spark下是这样的

1,270

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧