加入收藏 | 设为首页 | 会员中心 | 我要投稿 源码网 (https://www.900php.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 服务器 > 搭建环境 > Windows > 正文

每天处理千亿级日志量,Kafka是如何做到的?

发布时间:2019-12-26 18:31:20 所属栏目:Windows 来源:站长网
导读:副标题#e# 之前为大家分享了不少 Kafka 原理解析类的干货,今天咱们一起来看看 360 基于 Kafka 千亿级数据量的深度实践! 图片来自 Pexels 本文主要围绕如下内容分享: 消息队列选型 Kafka 在 360 商业化的现状 Kafka Client 框架 数据高可用 负载均衡 鉴权

线上问题及解决方案

每天处理千亿级日志量,Kafka是如何做到的?


磁盘故障:我们通过 Smartctl 来监测,首先状态是要 Passed 的,其次我们会判断 197 Current_Pending_Sector 这个属性值不能大于 100, 如果大于 100 这个磁盘可能有读写性能问题。

bootstrap.servers 性能瓶颈:该参数可以配置多台 Broker,这些 Broker 作为 Proxy 的角色为 Kafka Clients 提供 Lookup 服务。

如果集群规模很大,Clients 很多的情况下,这些 Proxy 角色的 Broker 的负载会很大,为了解决这个问题,我们对 bootstrap.servers 参数做了 VIP 配置。

每个 VIP 可以绑定任意多的 Brokers,这样在客户端不需要修改配置的情况下可以对 Proxy 动态扩缩容。

Consumer 重启不消费:业务反馈消费停止,重启也不能够解决问题,后来定位发现是早于 0.11 之前版本的 Bug:

https://issues.apache.org/jira/browse/KAFKA-5413 

原因是 log cleaner 线程挂了导致 Compact 停止,__consumer_offsets 这个 Topic 的量非常大,broker reload 时间特别长,这段时间是停止服务的。

解决方法有两个:

一是升级到 Kafka 0.11+ 版本

二是将 Offset 迁移到新的 Consumer Group 来解决(规避掉有问题的 Coordinator)。

严锁鹏

每天处理千亿级日志量,Kafka是如何做到的?

(编辑:源码网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读