Kafka消费数据问题

小哈ha 2020-04-27 10:33:31
我通过flume获取外网服务器上的日志数据(测试生产数据)作为生产者,每秒生产1条的话,kafka这边无法消费,要等生产端停止才能拿到未消费的,我试过生产端至少设置4秒产生一条,消费端才能及时消费到,但是我测试过10秒生产5条,消费端却可以消费到,这个是怎么回事呢?从生产到成功消费,大概有2秒左右的延迟,3台1h2g虚拟机集群了的,topic是3个分区
...全文
121 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
Therefore丶 2020-08-18
  • 打赏
  • 举报
回复
导致这个问题的有两点, 一是flume设置的数据条数:如果你写入kafka的数据条数达不到该设置,那么只有停止的时候才会开始写入。 二是flume设置的数据量大小(文件大小)
langjinchao 2020-04-29
  • 打赏
  • 举报
回复
我回复能赚取积分吗?
小哈ha 2020-04-27
  • 打赏
  • 举报
回复
我是用2台机器来做的,比如为a和b,a机器是用来采集,sink的type设置avro,把数据采集到b机器上去,b机器的sink设置的kafka,作为kafka的生产者
LinkSe7en 2020-04-27
  • 打赏
  • 举报
回复
flume是怎么配置的?我怀疑是你flume把数据刷到内存channel,因为缓冲量不够,就没有及时sink到kafka 正常直接把kafka配置为channel就可以了,sink不配置

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧