kafka批量拉一部分数据,消费过程中抛错,剩下数据丢失咋解决
现在项目中kafka环境测试结果如下:
比如一次拉500条数据下来处理,
当处理第100条时由于数据问题导致程序报错了,那么101-500这些数据就没被消费了
下一批数据就会从501-1000
以前看到过这种情况,如果一批数据处理中有任何报错,下次消费从报错这批数据的第一个offset继续消费,这样保证每批数据至少不漏消费
请问实现这种场景怎么配置的,现在用kafka+springboot测试不是这种效果
最后,还有什么更好的方法,解决这种漏消费问题么,尽量保证不丢,适当重复也可以