10月17日的 Apache Kylin Meetup 上,来自中通快递的数据工程师王成龙带来了题为《Apache Kylin 在中通的实践》的分享。内容涵盖:OLAP 引擎在中通的发展历程;为什么选择 Apache Kylin;Apache Kylin 在中通的实践经验;未来规划。以下是分享全文。
王成龙,2016年加入中通快递,任 OLAP 组与实时计算平台组负责人,自 2018 年起推动公司 OLAP 引擎的落地工作。
大数据技术自诞生之日起就一直在不断的发展,痛点推动着技术的革新。2019 年双十一当天,中通快递的日订单量超 2 亿单,平均每日产生的数据量超过 20 TB,实时计算每天处理的数据量超过 1000 亿条。面临如此体量的数据,给存储和计算带来了极大的挑战。那么,中通是如何进行海量数据的分析呢?上图是中通快递的“大数据平台架构”图。OLAP 计算引擎以 Kylin 和 Presto 为主,右侧是每个大数据组件对应的监控系统,上层则是平台工具层,包括调度系统、Ad-hoc 查询系统等。在2017年以前,是以 Impala 为主进行数据分析与报表计算。相较于 Hive,Impala 有以下几个显著优点:
查询速度快:对比Hive有着显著的性能提升。
兼容Hive数仓:可以分析Hive中的数据。
但随着数据量的不断增长和业务需求的不断复杂,Impala 也暴露出来了一些问题:
在这样一个背景下,中通在 2017 年引入了 Presto,并在今年上半年引入 Alluxio 对 Presto 常用 Hive 表进行加速,进一步提高 Presto 的查询速度。Presto 具有以下几个优点:
服务很稳定:很少会出现 server 挂掉的情况。
性能非常好:可满足交互式查询甚至是跑一些 ETL 任务。
丰富的数据源支持:基于插件机制可以很方便的分析 Hive、Kudu、kafka 和 Tidb 等其他组件中的数据,甚至可以进行不同数据源的关联分析,例如在一个 SQL 中关联 Hive 与 Kafka 中的数据。
Presto 虽然优点很多,却也存在几点不足:
集群要求较高:想要更快的查询速度就需要更多的机器,更好的网络带宽,更大的内存以及更强的CPU去支撑。
重复计算:相同的查询也要重复的拉数据进行分布式计算。这个重复计算有时会给我们带来痛苦,比如说集群繁忙,有时namenode负载高、网络出现抖动等都会给查询速度带来影响。为此,我们引入了alluxio,对Presto常用的hive表进行加速,如此一来可以大幅提升scan hive table的速度。
需要权衡和妥协:你需要在查询速度和查询复杂度上面妥协。这一点先卖个关子,将在后面的“中通为什么选择Apache Kylin”中重点说明。
为了解决这个问题,我们在 2018 年调研并引入了 Apache Kylin。Kylin 可以很好的解决海量数据的多维分析问题,并且具有亚秒级的查询响应速度。不但如此,Kylin 还具有以下几个无可比拟的优点:
具有标准化的 SQL 支持:提供了 JDBC/ODBC/Rest API 接口,便于做系统集成。
亚秒级的查询速度:这一点是难能可贵的,在大数据领域,将查询速度提高到亚秒级,凤毛麟角。这不单单是查询速度的提升,更是用户体验的巨大提升。
事实表大小不影响查询速度:随着数据量的不断增长,其他的 OLAP 引擎都会有不同程度的查询速度下降。反观 Kylin,数据的增长只会影响 cube 的构建速度,对查询速度影响很小。
集群要求低且服务稳定,中小企业也养得起 Kylin。在过去2年多的时间里,Kylin 集群一直很稳定,没有出现过进程异常退出的情况。
如此可见,Kylin 的优点很多很突出,但不可否认的是它也存在着不足:
中通为什么会选择使用 Kylin 呢?只因为它能更好的解决刚刚提到的 Presto 面临的权衡问题吗?不尽然。先来回顾一下官网的定义:Apache Kylin™是一个开源的、分布式的分析型数据仓库,提供 Hadoop/Spark 之上的 SQL 查询接口及多维分析(OLAP)能力以支持超大规模数据,并且能在亚秒内查询巨大的表。从这段话中可以提炼出几个关键字,开源:意味着免费,可自由研究与修改源码。亚秒:查询性能出众。
预计算:以空间换时间的方式事先根据模型计算出各种可能,让查询引擎做很更少的计算。
高性能:Kylin 在中通97%以上的查询都能在1s内返回结果。
分布式:部署多台可成倍提升查询吞吐率。
易集成:提供 JDBC/Rest API,易于做系统集成。
刚刚在分析 Presto 优缺点时有提到需要在查询性能和查询复杂度上面做一个权衡。如果要在 3s 内返回查询结果,查询条件就不能过于复杂,数据量也不能过大。如果想要兼得鱼和熊掌,也不是没有办法,那就是通过 ETL 任务预计算的方式先将数据打平,变成大宽表,再将这张大宽表拉到 alluxio 内存中,后通过 Presto 做很简单的查询。虽然这种做法能解决问题,但不可避免的引入了更多问题:2.3 Apache Kylin VS Presto
在这样一个背景下,我们引入了 Kylin。经测试,Kylin 在查询性能方面相较于 Presto 少则十几倍多则几百倍的性能提升。某些场景下,Presto 因内存限制等原因干脆就跑不出来,查询被主动 kill 掉。反观 Kylin,表现非常好。基于内部监控系统抓取到的历史查询数据,进行了简单的统计,其中97%以上的查询都能在1s以内返回结果,1s~3s 的查询有1.35%,而3s以上的查询则只有0.95%。以上的测试是在这样一个集群规模下测得的,Presto 50多台,配置是64核,256G。而 Kylin 则是与 HBase 混布,共计5台,其中4台节点用于 query,每个节点分配了16G的内存。引入 Kylin 以后,我们是如何使用这个瑞兽的呢?这个瑞兽又是怎样赋能中通快递的呢?带着这个疑问,先来看一个路由件量分析的案例。所谓路由件量分析是指统计指定路由线路上的件量、重量以及经过的中心数。里面包含的维度很多,比如说快件的发件省份、经过的首中心、第二中心、末端中心等,这些可以看做是快件路由线路上的维度。另外还包括重量段这个维度,重量段是用来描述快件所在的重量区间,比如1~3公斤,3~5公斤等。后的指标包括件量、总重量以及经过的中心数等。
维度多:大概有 20 多个维度;
查询慢:现有的技术方案不能很好的满足查询需求
要求高:要求 5s 内出结果
数据量大,日新增 2 亿多条。
我们通过 Presto 去跑,根据筛选条件的不同,查询时间从20s到60s不等,根本无法满足需求。基于 Kylin 提供的 JDBC,可以与帆软无缝集成,经过多轮的 cube 优化,终查询耗时 2.9s,后续走缓存查询耗时稳定在亚秒级别,很好的满足了业务需求,解决了痛点。Kylin 共部署了 5 台节点,其中1台 job 节点, 4台 query 节点;HBase 有40多台;当前 cube 总数63个;总 cube 大小是 33 TB以上;源数据总数有 800 多亿条;每天响应查询数有1万以上;其中97%以上的查询耗时小于 1s。Kylin 提供了大量好用的 Rest API,通过这些 Rest API,可以很方便的与调度系统集成,进行构建任务实例的管理。为什么要将 Kylin 计算任务集成到调度系统呢?因为通过调度系统,可以很好的解决任务间的依赖问题,任务失败也可以自动重跑,失败的任务会有电话、钉钉告警,便于时间发现问题。中通的调度系统目前支持指定 cube 的构建、cube 的回刷以及运行中的任务 kill 等功能,基本满足了构建任务的常规管理需要。调度系统如何集成 Kylin 进行构建任务的管理呢?Kylin 提供了丰富的 Rest API,可用于和第三方系统做集成。整合过程大体分为两步:首先调用认证 API 进行用户认证,然后再调用构建 API 进行 cube 的构建。如此一来,就将 Kylin 计算任务纳入到调度系统的管理,非常方便。3.5 Apache Kylin 监控系统--分钟级监控
接下来是监控部分,监控系统是大数据平台的重要一环。我们针对 Kylin 引擎的特点自研了一套监控告警系统。由于没有找到有关 Kylin 查询相关的 Rest API,所以对源码做了二次开发,将查询请求信息主动吐到 Kafka,再由Kylin监控系统实时消费落库,用于更进一步的分析。Kylin 监控主要涵盖三个方面,分别是分钟级的查询监控、天级别的监控分析以及异常监控。首先来看分钟级别的监控,这类监控的特点是粒度比较细,包含的主要功能如下:
每分钟的查询量统计:统计每分钟请求 Kylin 的查询数,可用于查看业务系统在不同时段的查询量,快速定位异常流量。
每分钟失败的查询:统计每分钟里失败的查询数,可用于判断 Kylin 是否存在问题或者是应用系统发出来的查询是否有异常。
第三个是异常 SQL 自动 kill:坏查询会给集群带来波动,异常 SQL 自动 kill 可降低这种影响,保障集群稳定。
3.6 Apache Kylin 监控系统--天级别监控
3.7 Apache Kylin 监控系统--异常监控
后一个是异常监控,没有界面,只有告警推送,是Kylin监控中重要的部分:
cube 膨胀率监控:根据官方的建议,当扫描到某些cube 的膨胀率超过1000%时会发出钉钉告警。
Segment 异常监控:我们曾经有一个线上的 cube,跑着跑着发现数据对不上,经定位发现几天前的一个构建任务没跑成功,导致了 segment 存在空洞,有了这个监控可以很好的避免此类问题的发生。
job失败监控:当构建任务失败时,会主动推送告警信息。
TTL 未设置监控:这个监控是为了防止有些 cube 在创建过程中忘记设置 TTL 时间,避免历史数据无法得到清理。
Kylin 进程监控:7*24小时监控 Kylin 进程,重中之重。
接下来是 Kylin 在中通的优化实践,优化这一块,大体分为两个方面,分别是 HBase 相关参数的优化和 MapReduce 相关参数的优化。Kylin 默认的 HBase 参数中没有开启表压缩,随着segment数的不断上涨,给存储带来了负担。通过开启 HBase 表压缩,整体节约 70% 左右的磁盘空间,效果还是很可观的。kylin.storage.hbase.compression-codec=snappykylin.metadata.hbase-rpc-timeout=60000kylin.metadata.hbase-client-scanner-timeout-period=60000kylin.metadata.hbase-client-retries-number=10另一个是 HBase 超时和重试次数的参数调整,由于后半夜 ETL 高峰,HBase 集群压力很大,这个时候就会出现构建任务读写 HBase 超时,为此,我们调大了超时时间,并增加了重试次数。另一方面是 MapReduce 相关参数的调整,Kylin 默认的大reduce 数是500,在某些情况下会成为瓶颈,为此调大了 reduce 大数的限制,并将用于计算 Reduce 数量的这个参数从500调整为250,这样一来,reduce 数会增多。经过以上几个参数的调整,部分构建任务时间缩短近了1/3。kylin.engine.mr.mapper-input-rows=500000kylin.engine.mr.reduce-input-mb=250kylin.engine.mr.max-reducer-number=50000kylin.job.max-concurrent-jobs=15根据官方的建议,要定期清理元数据、cube 构建临时数据和过期的 HBase 表数据等,并定期备份元数据信息。实践的后一部分,是关于源码和版本升级。研究 Kylin 源码好处很多,可以更深入的了解 Kylin,解决棘手的问题,甚至可以进行二次开发。到目前为止,我们对 Kylin 源码修改还比较少,以满足需求和解决问题为主。主要的改动是查询信息发 送Kafka 和为更新数据字典时间戳添加分布式锁。之所以添加这个分布式锁是因为我们线上遇到过这个问题,右侧上图是异常的堆栈,当同时回刷一个cube 的多个 segment 时会偶发性的报错。后是重要的 patch 合并和升级,在今年 7 月份完成了一次从Kylin 2.5.1到3.0.2的升级。后是未来规划,未来,我们主要的探索方向是以下几个方面:
Kylin智能诊断:作为监控系统的补充,智能诊断同样具有重要的作用。它可以根据预设的规则给出初步的诊断结果,辅助用户排查问题。
查询下压Presto:Kylin已经支持查询下压的功能,未来将探索将Kylin作为统一的查询入口,对于未命中cube的查询下压到presto,形成优势互补。
-
自助分析系统:后一个则是自助分析系统,相信Kylin在这个系统中会发挥更大的作用。
以上文章来源于公众号-apachekylin ,作者王成龙