【每日阅读】2020年05月23日-Kafka 消息丢失与消费精确一次性

链接

https://mp.weixin.qq.com/s/6-bgLMg5ISfB6i2pcPKGBg

文章截图

简评

文章首先说了如何确保消息不丢失,分成三个点,也就是producer、broker、consumer三部分。producer确保不丢失就是要关注send结果,broker保证不丢失就是不能随便选一个leader,consumer确保数据不丢失就是不能随便告诉broker自己收到消息了,处理完了后再告诉broker自己处理完了。

文章后面还说了如何实现精确的一次性消费,我觉得这个点通过kafka实现并不好,因为通过kafka实现精确一次性消费明显会对kafka性能有影响,但是可能99.99%的消息平时正常都是只消费一次的,只有偶尔出现消费不是一次,这种情况让应用程序收到消息后自己判断是否重复消费了我觉的更好。

原创文章,作者:geekgao,如若转载,请注明出处:https://www.geekgao.cn/archives/1711

(0)
geekgaogeekgao博主
上一篇 2020年5月22日
下一篇 2020年5月25日

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

GitHub
分享本页
返回顶部

Warning: error_log(/usr/local/lighthouse/softwares/wordpress/wp-content/plugins/spider-analyser/#log/log-2009.txt): failed to open stream: No such file or directory in /usr/local/lighthouse/softwares/wordpress/wp-content/plugins/spider-analyser/spider.class.php on line 2900