我用的是python!在sparkstreaming中,使用kafka的directstream,如何自己实现将offset更新到zookeeper?

jinzitian 2016-11-01 11:22:13
在sparkstreaming中,使用kafka的directstream接口获取数据时,不会将offset更新到zookeeper,这样会导致job重启后只能从最新的offset读取,从而造成数据丢失,为了避免这个情况,官网提示说可以自己实现将offset手动更新到zookeeper,我使用的是python,但是spark的python接口中并无java和scala中的kafkacluster这个类,不知道自己手动该如何实现,网上有很多scala和java实现这个操作的代码,求高手给一个python版本的,在线等,跪求!!!!小弟编程能力有限,跪求高手耐心解答,抱拳。
...全文
724 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
jinzitian 2016-11-01
  • 打赏
  • 举报
回复
自己顶一下,求大神

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧