LinkedIn 的Kafka 生态

来源:InfoQ 作者:覃璐
  

 

Apache Kafka 是一个高度可扩展的消息系统,在LinkedIn 的中心数据管道中扮演着关键角色。LinkedIn 早在2010年就开发了Kafka,现在每天在1400个节点上处理超过1.4万亿条消息。Kafka 的高稳定性低延迟,使我们能够使用Kafka 支撑LinkedIn 的许多新的关键任务用例,包括在Espresso 中使用基于Kafka 的副本取代MySQL 副本,Venice 以及支撑下一代的Databus(正在开发中)。

随着Kafka 的使用率持续的快速增长,我们必须尽可能的解决一些重大问题,所以我们围绕Kafka 开发了一个完整的生态系统。本文中,我会总结我们的一些解决方案,能够对正在使用Kafka 的人有一些帮助,并强调几个活动预告,能让你学到更多。

(点击放大图像)

 

上图并不能完全反映LinkedIn 的各种数据管道和拓扑结构,但足以说明LinkedIn 的Kafka 部署的关键部分,以及他们是怎样相互作用。

Kafka 核心服务

Kafka 代理者

我们在每个数据中心,为了不同的目的运行了多个Kafka 代理者集群。在目前的开发环境中,有将近1400个代理者每周接收超过2PB 的数据。通常大约每个季度我们会复制Apache Kafka 的主干,裁剪出一个新的内部发行版。

Kafka 镜像制造者

镜像制造者让我们可以通过从源集群消费,然后生产到目的集群来制造副本。有许多镜像管道同时运行在数据中心内和跨数据中心。Todd Palino 的文章总结了我们怎样使用它来方便Kafka的不同组成。

模式注册中心

在LinkedIn,我们使用标准化的Avro 作为我们数据管道的通用语言。所以每个生产者编码Avro 数据,注册Avro 模式到模式注册中心,并在每条序列化的消息中内置一个模式ID。消费者为了反序列化Avro 消息,从模式注册中心服务获取ID 对应的模式。虽然有多个模式注册中心实例跨越我们的数据中心,但有一个单一的(已复制)包含这些模式的数据库支持。

Kafka REST 代理

Kafka REST 是一个为非Java 客户端提供的HTTP 代理。我们的大多数Kafka 集群都有一个关联的REST 代理。Kafka REST也可以作为一个官方服务用于主题上的管理操作。

Nuage

Kafka 在大部分情况下是自助服务的:用户定义自己的事件模式,然后开始生产数据到主题中;Kafka 代理者使用默认配置和分区数自动创建主题;最后,任何一个消费者可以消费主题,使得Kafka 完全的开放访问。

随着Kafka 的使用率上升和新用例出现,在上述方式中显然存在很多限制。首先,一些主题需要定制配置,对Kafka SREs 有特殊的要求;其次,对于大多数用户,很难发现和检查自己主题的元数据(例如,比特率、审计完整性、模式历史等);最后,随着Kafka 加入各种各样的安全特性,一些主题所有者可能想要限制访问他们的主题,并且自己管理ACLs。

在LinkedIn,Nuage 作为在线数据基础设施资源的自助服务入口,我们最近和Nuage 团队一起工作,为Nuage 添加内置的Kafka 支持。这为用户管理自己的主题和关联元数据提供了便利。Nuage 委托CRUD 操作给Kafka REST,这样抽象了Kafka 管理工具的细微差别。

LiKafka 客户端库

LiKafka 生产者封装了开源的生产者,同样做了模式注册、Avro 编码、审计,并且支持大消息。审计事件计算10 分钟内发送给每个主题的事件数。同样地,它的消费者封装了开源的消费者,并做了模式查找、Avro 解码和审计。

Kafka 推送作业

Kafka 推送作业用来从Hadoop 运送压缩数据到Kafka 中给在线服务消费。推送作业运行在我们的CORP 环境的Hadoop 集群中,生产数据到CORP 数据部署Kafka 集群中。一个镜像制造者复制这些数据到PROD 数据部署集群中。

Gobblin

Gobblin 是LinkedIn 的新集成框架,替代Camus。它本质上是一个大型的Hadoop 作业,用来复制Kafka 中的所有数据到Hadoop 中进行离线处理。

监控服务

Kafka 监控

这是一个持续运行的用于Kafka 部署的测试集,用来验证新版本和监控目前的部署。目前我们监控基本但是重要的指标,比如端到端延时和数据丢失。未来我们想使用这个框架在测试集群中持续测试管理操作(比如分区再分配)的正确性,甚至利用错误注入框架,比如Simoorg,来确保我们即使在许多故障的情况下也能够满足可用性SALs。

Kafka 审计

在我们的审计跟踪基础设施中,有两个关键组件:

  1. Kafka 审计服务,消费并重新计算Kafka 集群中的所有数据,然后发送类似的审计事件到跟踪的生产者。这允许我们使Kafka 集群生产者计算的数量保持一致,并发现是否有数据丢失。
  2. Kafka 审计验证服务,持续监控数据完整性,并提供一个可视化的审计跟踪的用户界面。这个服务消费并插入审计事件到审计数据库中,当数据延迟或者丢失时发出警告。我们使用审计数据库来调查发生的警告,并精确定位数据在哪丢失。

(点击放大图像)

 

Burrow

Burrow 是一个优雅的解决监控Kafka 消费者健康这个棘手问题的方案,为消费者状态提供了一个完整的视图。它提供一个不需要指定阈值的消费者延迟检测服务,监控主题-分区粒度的所有消费者的提交偏移,并计算需要的消费者状态。

LinkedIn 的流处理

Samza 是LinkedIn 的流处理平台,让用户尽快的启动他们的流处理作业并在生产环境中运行。流处理领域一直很活跃,有许多类似的开源项目。不像其他的流处理系统专注于广泛的功能集,我们专注于让Samza可靠、高性能和可扩展。现在我们在很多生产环境中运行,所以我们可以将注意力转向扩大功能集。早先的博客文章深入研究了我们的生产环境场景,围绕相关性、分析、站点监控、安全等,以及我们正在研究的大量新功能。

活动预告

如果你有兴趣学习更多关于我们的Kafka 生态系统,我们怎样部署以及故障排除,我们的最新特性/用例,我们邀请你参加这些即将到来的演讲:

我们希望在那里见到你!


时间:2016-06-01 08:34 来源:InfoQ 作者:覃璐 原文链接

好文,顶一下
(0)
0%
文章真差,踩一下
(0)
0%
------分隔线----------------------------


把开源带在你的身边-精美linux小纪念品
无觅相关文章插件,快速提升流量