社区
Spark
帖子详情
flume如何确认kafka接受数据成功了
帮我消消黑眼圈!
2019-08-12 10:11:07
总不能kafuka死了还往外sink吧
...全文
347
2
打赏
收藏
flume如何确认kafka接受数据成功了
总不能kafuka死了还往外sink吧
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
2 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
咕泡-星云
2021-07-12
打赏
举报
回复
flume将数据发给kafka后,就由kafka来处理,所以是设置kafka高可用来解决这个问题
夜无边CN
2019-08-14
打赏
举报
回复
都接受不到数据了,还怎么往外sink
flume
+
kafka
+flink+mysql
数据
统计
flume
+
kafka
+flink+mysql实现nginx
数据
统计与分析
Flume
+
kafka
+Storm整合
Flume
+
kafka
+Storm整合 示例简介: 以下为三个组建整合,这里只做操作也演示结果,原理性方面大家...流程顺序是
flume
获取telnet
数据
,将接收到的
数据
发送至kafak,
kafka
作为Storm的spout,Storm进行有向无环分析
数据
。
Flume
采集
数据
到
Kafka
,然后从
kafka
取
数据
存储到HDFS的方法思路和完整步骤
自己研究大
数据
多年,写的一个日志
数据
采集方案笔记,可快速熟悉
Flume
,
Kafka
,Hdfs的操作使用,以及相互的操作接口。
flume
+
kafka
+sparkstreaming
通过
flume
监控文件,让
kafka
消费
flume
数据
,再将sparkstreaming连接
kafka
作为消费者进行
数据
处理,文档整理实现
利用
Flume
将MySQL表
数据
准实时抽取到HDFS、MySQL、
Kafka
利用
Flume
将MySQL表
数据
准实时抽取到HDFS、MySQL、
Kafka
用到的jar包
Spark
1,258
社区成员
1,168
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章