spark-assembly-*-hadoop*.jar

Effpom 2016-09-24 09:22:53
这个包一直找不到,下载了官网的pre 版本,并没有lib目录,并且sbt assembly文件之后,为什么会出现4个不同的包啊?急!
...全文
6058 9 打赏 收藏 转发到动态 举报
写回复
用AI写文章
9 条回复
切换为时间正序
请发表友善的回复…
发表回复
Effpom 2017-06-05
  • 打赏
  • 举报
回复
引用 7 楼 xia1213zhao 的回复:
哪里可以下载这个包?? 我现在遇到个问题Error:(4, 12) object apache is not a member of package org import org.apache.spark.SparkContext
spark2.0以后就没有这个包了,直接全部导入即可.
Effpom 2017-06-05
  • 打赏
  • 举报
回复
引用 5 楼 u014135021 的回复:
请问楼主这个问题解决了吗
解决了已经,spark2.0以后已经没有这个包,把所有lib包导入即可,我是编译源码用到的,如果你也是编译源码的话,用百度上一样的编译方法,编译成功后,编译的包都在相应子目录下的target文件中。
  • 打赏
  • 举报
回复 1
哪里可以下载这个包?? 我现在遇到个问题Error:(4, 12) object apache is not a member of package org import org.apache.spark.SparkContext
Xiao 伙伴 2017-01-07
  • 打赏
  • 举报
回复
https://repository.cloudera.com/content/repositories/releases/ 把这个加到repository里面就好了
  • 打赏
  • 举报
回复
请问楼主这个问题解决了吗
野男孩 2016-10-13
  • 打赏
  • 举报
回复
都导进去。。。
qq_26802917 2016-10-13
  • 打赏
  • 举报
回复
所有JAR包都导进去即可
sinat_18380527 2016-10-12
  • 打赏
  • 举报
回复
引用 1 楼 coding_hello 的回复:
2.0版的没有assembly的包了,在jar里面,是很多小jar包 1.6以前的应该都有
请问这种情况怎么在idea里导依赖?
野男孩 2016-09-24
  • 打赏
  • 举报
回复
2.0版的没有assembly的包了,在jar里面,是很多小jar包 1.6以前的应该都有

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧