社区
Hadoop生态社区
帖子详情
Kafka消费数据问题
小哈ha
2020-04-27 10:33:31
我通过flume获取外网服务器上的日志数据(测试生产数据)作为生产者,每秒生产1条的话,kafka这边无法消费,要等生产端停止才能拿到未消费的,我试过生产端至少设置4秒产生一条,消费端才能及时消费到,但是我测试过10秒生产5条,消费端却可以消费到,这个是怎么回事呢?从生产到成功消费,大概有2秒左右的延迟,3台1h2g虚拟机集群了的,topic是3个分区
...全文
121
4
打赏
收藏
Kafka消费数据问题
我通过flume获取外网服务器上的日志数据(测试生产数据)作为生产者,每秒生产1条的话,kafka这边无法消费,要等生产端停止才能拿到未消费的,我试过生产端至少设置4秒产生一条,消费端才能及时消费到,但是我测试过10秒生产5条,消费端却可以消费到,这个是怎么回事呢?从生产到成功消费,大概有2秒左右的延迟,3台1h2g虚拟机集群了的,topic是3个分区
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
4 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
Therefore丶
2020-08-18
打赏
举报
回复
导致这个问题的有两点, 一是flume设置的数据条数:如果你写入kafka的数据条数达不到该设置,那么只有停止的时候才会开始写入。 二是flume设置的数据量大小(文件大小)
langjinchao
2020-04-29
打赏
举报
回复
我回复能赚取积分吗?
小哈ha
2020-04-27
打赏
举报
回复
我是用2台机器来做的,比如为a和b,a机器是用来采集,sink的type设置avro,把数据采集到b机器上去,b机器的sink设置的kafka,作为kafka的生产者
LinkSe7en
2020-04-27
打赏
举报
回复
flume是怎么配置的?我怀疑是你flume把数据刷到内存channel,因为缓冲量不够,就没有及时sink到kafka 正常直接把kafka配置为channel就可以了,sink不配置
大
数据
视频_
Kafka
视频教程
Kafka
架构原理、安装配置使用、详细的
Kafka
写入
数据
和处理
数据
以及写出
数据
的流程、新旧版本对比及运用、分区副本机制的详解、内部存储策略、高阶API直接
消费
数据
、低阶API自行管理Offset
消费
数据
、
Kafka
拦截器以及...
基于Springboot实现
Kafka
消费
数据
基于Springboot实现
Kafka
消费
数据
关于
kafka
重新
消费
数据
问题
关于
kafka
重新
消费
数据
问题
我们在使用consumer
消费
数据
时,有些情况下我们需要对已经
消费
过的
kafka
数据
进行重新
消费
,这里介绍
kafka
中重新
消费
数据
的方法。 1、重新使用新的
消费
组 通过不同的group来重新
消费
数据
...
kafka
消费
者组
消费
数据
问题
kafka
消费
者组
消费
数据
问题
nginx代理
kafka
集群,
消费
不到
数据
问题
:今天在生成中出现nginx通过代理
消费
kafka
集群,生成
数据
正常,并且
消费
数据
数据
前置机可以
消费
,而内网机出现有时
消费
到
数据
有时
消费
不到
数据
。 nginx配置如下:
消费
出现有是有能
消费
,而有时候确
消费
不到 ...
Hadoop生态社区
20,808
社区成员
4,690
社区内容
发帖
与我相关
我的任务
Hadoop生态社区
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
复制链接
扫一扫
分享
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章