社区
Spark
帖子详情
如何编译spark源码的时候把hbase相关包也编译进去
jiangbo1125
2015-10-16 04:18:25
./make-distribution.sh --tgz --name 2.2.0 -Pyarn -Phadoop-2.2 -Pspark-ganglia-lgpl -Phive
用的上面的命令
把yarn、hive、hadoop都可以编译到包中,想问怎么修改pom.xml文件,把hbase也加入其中。
生成的jar包中怎么才能有hbase咧?
...全文
103
回复
打赏
收藏
如何编译spark源码的时候把hbase相关包也编译进去
./make-distribution.sh --tgz --name 2.2.0 -Pyarn -Phadoop-2.2 -Pspark-ganglia-lgpl -Phive 用的上面的命令 把yarn、hive、hadoop都可以编译到包中,想问怎么修改pom.xml文件,把hbase也加入其中。 生成的jar包中怎么才能有hbase咧?
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
hbase
2.3.5+
spark
-3.0.3
源码
编译
包
hbase
2.3.5+
spark
-3.0.3
源码
编译
包
CDH5.13-phoenix-4.11.0-
HBase
-1.2
源码
包
编译
可用
本文将详细介绍如何
编译
CDH5.13中的Phoenix 4.11.0-
HBase
1.2
源码
包
。 首先,我们需要从Apache官方仓库获取Phoenix 4.14.0-cdh5.13.2的parcels资源,这是与CDH5.13兼容的版本。在官方下载页面...
shc-core-
spark
-2.3.0-
hbase
-2.1.0.jar
使用hortonworks的开源框架shc
源码
编译
,适用于在cdh6.2.0环境下,py
spark
2.4.0读写
hbase
2.1.0
original-
spark
-examples-2.4.3.jar.zip
《
Spark
与
HBase
交互:基于
源码
解决py
spark
访问
Hbase
2的错误》 在大数据处理领域,Apache
Spark
和Apache
HBase
都是重要的组件。
Spark
提供了高性能的数据处理能力,而
HBase
则是分布式列式数据库,适合存储大规模结构...
phoenix4.13.1-
hbase
1.2-cdh5.13
源码
可
编译
parcel集成
"phoenix4.13.1-
hbase
1.2-cdh5.13
源码
可
编译
parcel集成" 指的是Apache Phoenix版本4.13.1,它是一个针对
HBase
1.2版本的SQL查询引擎,特别设计用于Cloudera Data Hub(CDH)5.13的环境。这里的"
源码
可
编译
"意味着...
Spark
1,270
社区成员
1,170
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章