社区
Hadoop生态社区
帖子详情
hive进入web管理页面出错
xyh1re
2018-04-21 11:03:41
按照流程,对应的hwi的war包和jdk的lib目录下的tools.jar复制到hive的lib目录下,配置hive-site.xml文件,然后通过hive --service hwi启动hwi服务,在浏览器输入地址访问时,页面出错,显示以下信息:
百度上也没找到头绪,请问这个要怎么解决?
hive版本是2.1.1,还有一个问题就是,每次运行hive命令,都会提示:
这个which:no hbase in....真的好烦,同样没找到怎么去除这个的方法,请大家顺便看一下,谢谢!
...全文
1038
4
打赏
收藏
hive进入web管理页面出错
按照流程,对应的hwi的war包和jdk的lib目录下的tools.jar复制到hive的lib目录下,配置hive-site.xml文件,然后通过hive --service hwi启动hwi服务,在浏览器输入地址访问时,页面出错,显示以下信息: 百度上也没找到头绪,请问这个要怎么解决? hive版本是2.1.1,还有一个问题就是,每次运行hive命令,都会提示: 这个which:no hbase in....真的好烦,同样没找到怎么去除这个的方法,请大家顺便看一下,谢谢!
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
4 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
zengjc
2018-04-30
打赏
举报
回复
看来根据报错信息重新调整下,还是有用的
xyh1re
2018-04-21
打赏
举报
回复
试了很多,按照倒数第三条提示,到ant.apache.org下载最新版的ant.jar包复制到hive的lib目录下,清除浏览器缓存,刷新就可以了
xyh1re
2018-04-21
打赏
举报
回复
打包war包的操作: [root@hadoop01 /]# cd apache-hive-2.1.1-src [root@hadoop01 apache-hive-2.1.1-src]# ls accumulo-handler checkstyle contrib findbugs hwi LICENSE llap-server orc README.txt service-rpc te ant cli data hbase-handler itests llap-client llap-tez packaging RELEASE_NOTES.txt shims beeline common dev-support hcatalog jdbc llap-common metastore pom.xml serde spark-client bin conf docs hplsql lib llap-ext-client NOTICE ql service storage-api [root@hadoop01 apache-hive-2.1.1-src]# cd hwi [root@hadoop01 hwi]# ls pom.xml src web [root@hadoop01 hwi]# jar cvfM0 hive-hwi-2.1.1.war -C web/ .
datax-
web
:DataX集成可视化
页面
,选择数据源即可使用一键生成数据同步任务,支持RDBMS,
Hive
,HBase,ClickHouse,MongoDB等数据源,批量创建RDBMS数据同步任务,集成嵌入式调度系统,支持分布式,增量同步数据,实时查看运行日志,监控执行器资源,KILL运行进程,数据源信息加密等
数据网 DataX
Web
是在DataX之上开发的分布式数据同步工具,提供简单易用的操作界面,减少用户使用DataX的学习成本,更改任务配置时间,避免配置过程中
出错
。用户可以通过
页面
选择数据源即可创建数据同步任务,支持RDBMS,
Hive
,HBase,ClickHouse,MongoDB等数据源,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl -job可根据时间,自增主键增量同步数据。 任务“执行器”支持部署,支持执行器多字节路由策略选择,支持超时控制,失败重试,失败中断,任务依赖,执行器CPU。内存。负载的监控等等。后续提供更多的数据源支持,数据转换UDF,表结构同步,数据同步血缘等更复杂的业务场景。 架构图: 系统要求 语言:Java 8(jdk版本建议1.8.201以上) Python2.7(支持Python3需要修改
datax-
web
:DataX集成可视化
页面
,选择数据源即可一键生成数据同步任务,支持RDBMS、
Hive
、HBase、ClickHouse、MongoDB等数据源,批量创建RDBMS数据同步任务,集成开源调度系统,支持分布式、增量同步数据、实时查看运行日志、监控执行器资源、KILL运行进程、数据源信息加密等
DataX-
Web
DataX
Web
是在DataX之上开发的分布式数据同步工具,提供简单易用的 操作界面,降低用户使用DataX的学习成本,缩短任务配置时间,避免配置过程中
出错
。用户可通过
页面
选择数据源即可创建数据同步任务,支持RDBMS、
Hive
、HBase、ClickHouse、MongoDB等数据源,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据时间、自增主键增量同步数据。 任务"执行器"支持集群部署,支持执行器多节点路由策略选择,支持超时控制、失败重试、失败告警、任务依赖,执行器CPU.内存.负载的监控等等。后续还将提供更多的数据源支持、数据转换UDF、表结构同步、数据同步血缘等更为复杂的业务场景。 Architecture diagram: System Requirements Language:
linux环境:编译好的二进制文件:DataX
Web
数据同步工具datax2.1.2
DataX
Web
是在DataX之上开发的分布式数据同步工具,提供简单易用的 操作界面,降低用户使用DataX的学习成本,缩短任务配置时间,避免配置过程中
出错
。用户可通过
页面
选择数据源即可创建数据同步任务,支持RDBMS、
Hive
、HBase、ClickHouse、MongoDB等数据源,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据时间、自增主键增量同步数据。
DataX
Web
是在DataX之上开发的分布式数据同步工具
DataX
Web
是在DataX之上开发的分布式数据同步工具,提供简单易用的 操作界面,降低用户使用DataX的学习成本,缩短任务配置时间,避免配置过程中
出错
。用户可通过
页面
选择数据源即可创建数据同步任务,支持RDBMS、
Hive
、HBase、ClickHouse、MongoDB等数据源,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据时间、自增主键增量同步数据。任务"执行器"支持集群部署,支持执行器多节点路由策略选择,支持超时控制、失败重试、失败告警、任务依赖,执行器CPU.内存.负载的监控等等。后续还将提供更多的数据源支持、数据转换UDF、表结构同步、数据同步血缘等更为复杂的业务场景;DataX集成可视化
页面
,选择数据源即可一键生成数据同步任务,支持批量创建RDBMS数据同步任务,集成开源调度系统,支持分布式、增量同步数据、实时查看运行日志、监控执行器资源、KILL运行进程、数据源信息加密等。
DataX
Web
分布式数据同步工具-其他
DataX
Web
是在DataX之上开发的分布式数据同步工具,提供简单易用的操作界面,降低用户使用DataX的学习成本,缩短任务配置时间,避免配置过程中
出错
。用户可通过
页面
选择数据源即可创建数据同步任务,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据时间、自增主键增量同步数据。 任务"执行器"支持集群部署,支持执行器多节点路由策略选择,支持超时控制、失败重试、失败告警、任务依赖,执行器CPU.内存.负载的监控等等。后续还将提供更多的数据源支持、数据转换UDF、表结构同步、数据同步血缘等更为复杂的业务场景。 DataX
Web
安装环境: Language: Java 8(jdk版本建议1.8.201以上) Python2.7(支持Python3需要修改替换datax/bin下面的三个python文件,替换文件在doc/datax-
web
/datax-python3下) Environment: MacOS, Windows,Linux Database: Mysql5.7 DataX
Web
功能特点: 1、通过
Web
构建DataX Json; 2、DataX Json保存在数据库中,方便任务的迁移,
管理
; 3、
Web
实时查看抽取日志,类似Jenkins的日志控制台输出功能; 4、DataX运行记录展示,可
页面
操作停止DataX作业; 5、支持DataX定时任务,支持动态修改任务状态、启动/停止任务,以及终止运行中任务,即时生效; 6、调度采用中心式设计,支持集群部署; 7、任务分布式执行,任务"执行器"支持集群部署; 8、执行器会周期性自动注册任务, 调度中心将会自动发现注册的任务并触发执行; 9、路由策略:执行器集群部署时提供丰富的路由策略,包括:第一个、最后一个、轮询、随机、一致性HASH、最不经常使用、最近最久未使用、故障转移、忙碌转移等; 10、阻塞处理策略:调度过于密集执行器来不及处理时的处理策略,策略包括:单机串行(默认)、丢弃后续调度、覆盖之前调度; 11、任务超时控制:支持自定义任务超时时间,任务运行超时将会主动中断任务; 12、任务失败重试:支持自定义任务失败重试次数,当任务失败时将会按照预设的失败重试次数主动进行重试; 13、任务失败告警;默认提供邮件方式失败告警,同时预留扩展接口,可方便的扩展短信、钉钉等告警方式; 14、用户
管理
:支持在线
管理
系统用户,存在
管理
员、普通用户两种角色; 15、任务依赖:支持配置子任务依赖,当父任务执行结束且执行成功后将会主动触发一次子任务的执行, 多个子任务用逗号分隔; 16、运行报表:支持实时查看运行数据,以及调度报表,如调度日期分布图,调度成功分布图等; 17、指定增量字段,配置定时任务自动获取每次的数据区间,任务失败重试,保证数据安全; 18、
页面
可配置DataX启动JVM参数; 19、数据源配置成功后添加手动测试功能; 20、可以对常用任务进行配置模板,在构建完JSON之后可选择关联模板创建任务; 21、jdbc添加
hive
数据源支持,可在构建JSON
页面
选择数据源生成column信息并简化配置; 22、优先通过环境变量获取DataX文件目录,集群部署时不用指定JSON及日志目录; 23、通过动态参数配置指定
hive
分区,也可以配合增量实现增量数据动态插入分区; 24、任务类型由原来DataX任务扩展到Shell任务、Python任务、PowerShell任务; 25、添加HBase数据源支持,JSON构建可通过HBase数据源获取hbaseConfig,column; 26、添加MongoDB数据源支持,用户仅需要选择collectionName即可完成json构建; 27、添加执行器CPU、内存、负载的监控
页面
; 28、添加24类插件DataX JSON配置样例 29、公共字段(创建时间,创建人,修改时间,修改者)插入或更新时自动填充 30、对swagger接口进行token验证 31、任务增加超时时间,对超时任务kill datax进程,可配合重试策略避免网络问题导致的datax卡死。 32、添加项目
管理
模块,可对任务分类
管理
; 33、对RDBMS数据源增加批量任务创建功能,选择数据源,表即可根据模板批量生成DataX同步任务; 34、JSON构建增加ClickHouse数据源支持; 35、执行器CPU.内存.负载的监控
页面
图形化; 36、RDBMS数据源增量抽取增加主键自增方式并优化
页面
参数配置; 37、更换MongoDB数据源连接方式,重构HBase数据源JSON构建模块; 38、脚本类型任务增加停止功能; 39、rdbms json构建增加postSql,并支持构建多个preSq
Hadoop生态社区
20,807
社区成员
4,690
社区内容
发帖
与我相关
我的任务
Hadoop生态社区
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
复制链接
扫一扫
分享
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章