关于flume抽取oracle的增量数据sink到kafka的数据重复问题

qq_41198356 2021-01-23 10:29:11
采用flume组件flume-ng-sql-source-1.5.2.jar连接上Oracle数据库后,通过配置flume抽取数据sink到kafka,kafka测试过没有问题了,但是运行flume的时候,kafka消费者中的数据就几万几万的跳,明明我的数据库里只有10条数据,全是重复数据,这种情况是flume的配置出问题了吗?


...全文
797 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
LinkSe7en 2021-03-31
  • 打赏
  • 举报
回复
你没有配置增量,当然每次都是全表采集辣 参考这个https://xhyangdali.github.io/2019/05/30/Flume%E5%A2%9E%E9%87%8F%E9%87%87%E9%9B%86Mysql%E6%95%B0%E6%8D%AE/
qq_41198356 2021-03-31
  • 打赏
  • 举报
回复
问题解决啦,加了个时间增量,但是现在不用这个,在研究kettle
qq_41162136 2021-03-23
  • 打赏
  • 举报
回复
这个问题你解决了吗兄弟
飞向海洋的猪 2021-02-18
  • 打赏
  • 举报
回复
为什么不用sqoop直接同步数据呢,我是第一次见到使用flume同步数据库中的数据,flume不是一般用来采集日志数据的吗?

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧