-
Notifications
You must be signed in to change notification settings - Fork 182
重复消费问题 #131
Comments
很有可能是kafka group consumer 做了rebalance. |
childe,你好: |
补充:我也重启过logstash,也么有出现多数据的情况 |
kafka读数据的代码与写数据到ES的代码, 之间并没有直接的调用关系. '写入Elasticsearch之后成功之后返回给kafka的时候出现错误' 这个应该是不存在的. 但kafka消费本身有可能出现offset没有正确记录的情况. 一时想不出还有什么其他情况了. 要不加个微信聊? 64973150 我也想搞清楚到底是为啥 |
childe,你好:
首先非常感谢使用了hangout对我的帮助,我这里遇到一个问题,想请教你。
**问题:**我的hangout在消费kafka的并写入到Elasticsearch的时候,发现Elasticsearch上日志数据量比kafka的LOG-END-OFFSET数据要多,而kafka的LOG-END-OFFSET数据与我的日志文件数据量是一样的。
比如我的日志条数是48078条,我的kafka的LOG-END-OFFSE总和也是48078,但是我的Elasticsearch上查看到的日志是51334条,很好奇多余的几千条数据是怎么来的。
**我的理解:**我感觉可能是hangout消费kafka后,kafka并没有认为hangout消费了,所以数据显示没有被消费,则又被hangout消费了一遍,那么请问hangout消费一条数据之后,会做什么处理?
**注:**由于某些原因,我的ES版本不能升级。
下面是我的应用环境:
ES版本:Elasticsearch 2.3.5
hangout版本:hangout-0.1.8.2-ES2.3.5
kafka版本:kafka_2.11-1.1.0
zookeeper版本:zookeeper-3.4.12
下面是我的hangout配置
The text was updated successfully, but these errors were encountered: