社区
Spark
帖子详情
如何编译spark源码的时候把hbase相关包也编译进去
jiangbo1125
2015-10-16 04:18:25
./make-distribution.sh --tgz --name 2.2.0 -Pyarn -Phadoop-2.2 -Pspark-ganglia-lgpl -Phive
用的上面的命令
把yarn、hive、hadoop都可以编译到包中,想问怎么修改pom.xml文件,把hbase也加入其中。
生成的jar包中怎么才能有hbase咧?
...全文
106
回复
打赏
收藏
如何编译spark源码的时候把hbase相关包也编译进去
./make-distribution.sh --tgz --name 2.2.0 -Pyarn -Phadoop-2.2 -Pspark-ganglia-lgpl -Phive 用的上面的命令 把yarn、hive、hadoop都可以编译到包中,想问怎么修改pom.xml文件,把hbase也加入其中。 生成的jar包中怎么才能有hbase咧?
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
hbase
2.3.5+
spark
-3.0.3
源码
编译
包
hbase
2.3.5+
spark
-3.0.3
源码
编译
包
CDH5.13-phoenix-4.11.0-
HBase
-1.2
源码
包
编译
可用
http://www.apache.org/dist/phoenix/apache-phoenix-4.14.0-cdh5.13.2/parcels/ 请自行跳转至 官方下载对应parcels
shc-core-
spark
-2.3.0-
hbase
-2.1.0.jar
使用hortonworks的开源框架shc
源码
编译
,适用于在cdh6.2.0环境下,py
spark
2.4.0读写
hbase
2.1.0
original-
spark
-examples-2.4.3.jar.zip
源码
编译
制作的parcel
包
,亲测可用。 py
spark
访问
hbase
2报错的解决方案,下载
spark
2.4.3的
源码
重新打
包
。
phoenix4.13.1-
hbase
1.2-cdh5.13
源码
可
编译
parcel集成
http://www.apache.org/dist/phoenix/apache-phoenix-4.14.0-cdh5.13.2/parcels/ 请自行跳转至 官方下载对应parcels
Spark
1,270
社区成员
1,170
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章