Presto在滴滴的探索与实践
完全基于内存的并行计算 流水线 本地化计算 动态编译执行计划 小心使用内存和数据结构 GC控制 无容错
Hive SQL查询加速 数据平台Ad-Hoc查询 报表(BI报表、自定义报表) 活动营销 数据质量检测 资产管理 固定数据产品
PrestoSQL社区活跃度更高,PR和用户问题能够及时回复 PrestoDB主要主力还是Facebook维护,以其内部需求为主 PrestoDB未来方向主要是ETL相关的,我们有Spark兜底,ETL功能依赖Spark、Hive
隐式类型转换 语义兼容 语法兼容 支持Hive视图 Parquet HDFS文件读取支持 大量UDF支持 其他
latency高,QPS较低 不能查实时数据,如果有实时数据需求,需要再构建一条实时数据链路,增加了系统的复杂性 要想获得极限性能,必须与HDFS DataNode 混部,且DataNode使用硬件,有自建HDFS的需求,增加了运维的负担
结合 Druid 的预聚合、计算能力(过滤聚合)、Cache能力,提升Presto性能(RT与QPS) 让 Presto 具备查询 Druid 实时数据能力 为Druid提供全面的SQL能力支持,扩展Druid数据的应用场景 通过Druid Broker获取Druid元数据信息 从Druid Historical直接获取数据 实现了Limit下推、Filter下推、Project下推及Agg下推
无法划分多个Split,查询性能差 请求查询Broker,之后再查询Historical,多一次网络通信 对于一些场景,如大量Scan场景,会导致Broker OOM Project及Agg下推支持不完善
租户与权限 与内部Hadoop打通,使用HDFS SIMPLE协议做认证 使用Ranger做鉴权,解析SQL使Presto拥有将列信息传递给下游的能力,提供用户名+数据库名/表名/列名,四元组的鉴权能力,同时提供多表同时鉴权的能力 用户指定用户名做鉴权和认证,大账号用于读写HDFS数据 支持视图、表别名鉴权
语法拓展 支持add partition 支持数字开头的表 支持数字开头的字段
特性增强 insert数据时,将插入数据的总行数写入HMS,为业务方提供毫秒级的元数据感知能力 支持查询进度滚动更新,提升了用户体验 支持查询可以指定优先级,为用户不同等级的业务提供了优先级控制的能力 修改通信协议,支持业务方可以传达自定义信息,满足了用户的日志审计需要等 支持DeprecatedLzoTextInputFormat格式 支持读HDFS Parquet文件路径
通过Presto Plugin实现日志审计功能 通过JMX获取引擎指标将监控信息写入Ganglia 将日志审计采集到HDFS和ES;统一接入运维监控体系,将所有指标发到 Kafka; Presto UI改进:可以查看Worker信息,可以查看Worker死活信息
在Presto交流社区,Presto的稳定性问题困扰了很多Presto使用者,包括Coordinator和Worker挂掉,集群运行一段时间后查询性能变慢等。我们在解决这些问题时积累了很多经验,这里说下解决思路和方法。
根据职责划分,Presto分为Coordinator和Worker模块,Coordinator主要负责SQL解析、生成查询计划、Split调度及查询状态管理等,所以当Coordinator遇到OOM或者Coredump时,获取元信息及生成Splits是重点怀疑的地方。而内存问题,推荐使用MAT分析具体原因。如下图是通过MAT分析,得出开启了FileSystem Cache,内存泄漏导致OOM。
使用HDFS FileSystem Cache导致内存泄漏,解决方法禁止FileSystem Cache,后续Presto自己维护了FileSystem Cache Jetty导致堆外内存泄漏,原因是Gzip导致了堆外内存泄漏,升级Jetty版本解决 Splits太多,无可用端口,TIME_WAIT太高,修改TCP参数解决 JVM Coredump,显示"unable to create new native thread",通过修改pid_max及max_map_count解决 Presto内核Bug,查询失败的SQL太多,导致Coordinator内存泄漏,社区已修复
通过Resource Group控制业务并发,防止严重超卖 通过JVM调优,解决一些常见内存问题,如Young GC Exhausted 善用MAT工具,发现内存瓶颈
Sys load过高,导致业务查询性能影响很大,研究jvm原理,通过参数(-XX:PerMethodRecompilationCutoff=10000 及 -XX:PerBytecodeRecompilationCutoff=10000)解决,也可升级新JVM解决 Worker查询hang住问题,原因HDFS客户端存在bug,当Presto与HDFS混部署,数据和客户端在同一台机器上时,短路读时一直wait锁,导致查询Hang住超时,Hadoop社区已解决 超卖导致Worker Young GC Exhausted,优化GC参数,如设置-XX:G1ReservePercent=25 及 -XX:InitiatingHeapOccupancyPercent=15 ORC太大,导致Presto读取ORC Stripe Statistics出现OOM,解决方法是限制ProtoBuf报文大小,同时协助业务方合理数据治理 修改Presto内存管理逻辑,优化Kill策略,保障当内存不够时,Presto Worker不会OOM,只需要将大查询Kill掉,后续熔断机制会改为基于JVM,类似ES的熔断器,比如95% JVM 内存时,Kill掉大SQL
某业务集群进行了JVM调优,将Ref Proc由单线程改为并行执行,普通查询由30S~1分钟降低为3-4S,性能提升10倍+ ORC数据优化,将指定string字段添加了布隆过滤器,查询性能提升20-30%,针对一些业务做了调优 数据治理和小文件合并,某业务方查询性能由20S降低为10S,性能提升一倍,且查询性能稳定 ORC格式性能优化,查询耗时减少5% 分区裁剪优化,解决指定分区但获取所有分区元信息问题,减少了HMS的压力 下推优化,实现了Limit、Filter、Project、Agg下推到存储层
Presto on Alluxio查询性能提升35%,但是内存占用和性能提升不成正比,所以我们放弃了Presto on Alluxio,后续可能会对一些性能要求敏感的业务使用 Presto on Carbondata是在18年8月份测试的,当时的版本,Carbondata稳定性较差,性能没有明显优势,一些场景ORC更快,所以我们没有再继续跟踪调研Presto on Carbondata。因为滴滴有专门维护Druid的团队,所以我们对接了Presto on Druid,一些场景性能提升4~5倍,后续我们会更多关注Presto on Clickhouse及Presto on Elasticsearch
通过以上工作,滴滴Presto逐渐接入公司各大数据平台,并成为了公司Ad-Hoc查询引擎及Hive SQL加速引擎,下图可以看到某产品接入后的性能提升:
上图可以看到大约2018年10月该平台开始接入Presto,查询耗时TP50性能提升了10+倍,由400S降低到31S。且在任务数逐渐增长的情况下,查询耗时保证稳定不变。
而高性能集群,我们做了很多稳定性和性能优化工作,保证了平均查询时间小于2S。如下图所示:
但是如果看近一个月的CPU使用率会发现,平均CPU使用率比较低,且波峰在白天10~18点,晚上基本上没有查询,CPU使用率不到5%。如下图所示:
所以,解决晚上资源浪费问题是我们今后需要解决的难题。
同时,为了不与开源社区脱节,我们打算升级PrestoDB 0.215到PrestoSQL 340版本,届时会把我们的Presto on Druid代码开源出来,回馈社区。
来源 https://mp.weixin.qq.com/s/irrrcSl3zEKXcRGSkWmSkw
相关文章