Spark如何Kill掉application

Forrestleo 2017-06-22 04:50:12
项目需要,要对spark的一些任务进行监控,有些任务积压过多,要kill掉。
求大家指导一下,如何kill掉提交的application
...全文
5010 9 打赏 收藏 转发到动态 举报
写回复
用AI写文章
9 条回复
切换为时间正序
请发表友善的回复…
发表回复
kimbel 2017-08-24
  • 打赏
  • 举报
回复
引用 2 楼 Forrestleo 的回复:
我看一些官方的文档,是没提供停止job的函数。spark有一个隐藏的rest API,您指的是否是这些呢? ================================>>> spark rest 客户端有停止job的函数
spark有一个隐藏的rest API 为什么apache 官网上找不到啊
一个智子 2017-08-23
  • 打赏
  • 举报
回复
直接在你spark集群的web客户端页面就可以啊,找到相应的Application,点击kill
斯温jack 2017-08-03
  • 打赏
  • 举报
回复
/stages/stage/kill/?id=1701
斯温jack 2017-08-02
  • 打赏
  • 举报
回复
一个思路 在ui处看kill所发送的请求 找到api后调用api后面的函数 不知道行不行
shadon178 2017-07-27
  • 打赏
  • 举报
回复
yarn application -list 查询所有的任务; 然后使用yarn application -kill <appId>
Forrestleo 2017-07-04
  • 打赏
  • 举报
回复
引用 3 楼 shadon178的回复:
Spark里面有命令可以直接杀掉,具体命令你需要查一下,反正是有的。
spark里,我看到的kill掉application的方法,都是要知道driverid的,这种方法适用于通过rest去提交的任务。我们现在工程里,都是用脚本提交的
shadon178 2017-07-04
  • 打赏
  • 举报
回复
Spark里面有命令可以直接杀掉,具体命令你需要查一下,反正是有的。
Forrestleo 2017-07-03
  • 打赏
  • 举报
回复
我看一些官方的文档,是没提供停止job的函数。spark有一个隐藏的rest API,您指的是否是这些呢? ================================>>> spark rest 客户端有停止job的函数
freshghost1234 2017-06-30
  • 打赏
  • 举报
回复
spark rest 客户端有停止job的函数

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧