社区
Hadoop生态社区
帖子详情
求大神解答,远程执行HIVE操作的问题
clarck_913
2015-11-24 04:24:24
我有一个机器A上安装的HIVE + Hadoop
然后有另外一台机器B上跑了一个程序,现在我需要在B这台机器上来执行一个HIVE任务
比如把一个表中的数据查询出来做计算存储到另外一个表中去。
请问有什么办法实现么?
机器B上只有一个JVM和我自己的程序,它负责调度工作,不做具体的数据计算
...全文
127
1
打赏
收藏
求大神解答,远程执行HIVE操作的问题
我有一个机器A上安装的HIVE + Hadoop 然后有另外一台机器B上跑了一个程序,现在我需要在B这台机器上来执行一个HIVE任务 比如把一个表中的数据查询出来做计算存储到另外一个表中去。 请问有什么办法实现么? 机器B上只有一个JVM和我自己的程序,它负责调度工作,不做具体的数据计算
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
zhongzehuang
2015-11-26
打赏
举报
回复
有两种方式可以实现:1,把hive和hadoop全部复制到b,配置和a相同。2,a以服务的方式启动,jdbc方式访问。
干货丨渗透测试常用方法总结,
大神
之笔!
信息收集漏洞验证/漏洞攻击提权,权限维持日志清理一般先运行端口扫描和漏洞扫描获取可以利用的漏洞。多利用搜索引擎有授权的情况下直接使用 nmap 、masscan 、自己写py脚本等端口扫描工具直接获取开放的端口和获取服务端的 banner 信息。使用 Python 端口扫描的介绍https://thief.one/2018/05/17/1/?
两周从爬虫小白变
大神
,看完你就知道我不是标题党了【五万字教程
实现ImagesPipeline的子类,重写三个核心的方法。get_media_requests(self, item, info) 根据item中图片连接的属性,返回图片下载的request。可以返回一个Request也可以多个Request的列表file_path(self, request, response, info) 根据请
求
和响应返回图片保存的位置(相对于IMAGES_STORE)。如果返回的路径中包含子路径时,系统会自动创建子目录( os.makedirs() )。
两周从爬虫小白变
大神
,看完你就知道我不是标题党了【五万字教程(1)
实现ImagesPipeline的子类,重写三个核心的方法。get_media_requests(self, item, info) 根据item中图片连接的属性,返回图片下载的request。可以返回一个Request也可以多个Request的列表file_path(self, request, response, info) 根据请
求
和响应返回图片保存的位置(相对于IMAGES_STORE)。如果返回的路径中包含子路径时,系统会自动创建子目录( os.makedirs() )。
两周从爬虫小白变
大神
,看完你就知道我不是标题党了【五万字教程,建议收藏】
实现ImagesPipeline的子类,重写三个核心的方法。get_media_requests(self, item, info) 根据item中图片连接的属性,返回图片下载的request。可以返回一个Request也可以多个Request的列表file_path(self, request, response, info) 根据请
求
和响应返回图片保存的位置(相对于IMAGES_STORE)。如果返回的路径中包含子路径时,系统会自动创建子目录( os.makedirs() )。
两周从爬虫小白变
大神
,看完你就知道我不是标题党了【五万字教程,建议收藏】(1)
实现ImagesPipeline的子类,重写三个核心的方法。get_media_requests(self, item, info) 根据item中图片连接的属性,返回图片下载的request。可以返回一个Request也可以多个Request的列表file_path(self, request, response, info) 根据请
求
和响应返回图片保存的位置(相对于IMAGES_STORE)。如果返回的路径中包含子路径时,系统会自动创建子目录( os.makedirs() )。
Hadoop生态社区
20,848
社区成员
4,696
社区内容
发帖
与我相关
我的任务
Hadoop生态社区
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
复制链接
扫一扫
分享
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章