如何实现一个跨库连表SQL生成器?
阿里妹导读:用户只需在前端简单配置下指标,系统即可自动生成大宽表,让用户查询到他所需要的实时数据,数据源支持跨库并支持多种目标介质。这样的数据全局实时可视化如何实现?本文从需求分析开始,分享自动生成SQL功能开发中运用到的设计模式和数据结构算法设计。
文末福利:藏经阁100本电子书免费下载。
架构解析:
初始数据来自于元数据中心。
经过元数据适配层后转换为内部格式数据。
调度中心把内部格式的数据传到计划中心,计划中心分析数据需求并建模,通过SQL生成器生成资源和SQL,分别通过告警中心、对账中心设定监控标准和对账标准。
对账中心定时对账,查看数据的对齐情况。
告警中心可以针对任务错误、延迟高等情况发送报警。
资源的生命周期管控在资源管理中心下,view删除时资源管理中心负责回收资源。
基础资源适配层主要借助集团基础资源管理能力串联阿里各类数据服务, 比如阿里云MaxComputer、Flink、阿里云AnalyticDB等。
其中,SQL生成器的上游和下游主要涉及:
上游计划中心
配置指标:用户在前端配置他想看的数据有哪些。
生产原始数据:根据用户输入得到哪些表作为数据源, 以及它们之间的连接关系。
下游Metric适配器
把SQL发布到Flink, 根据建表数据建物理表。
本文主要从技术角度介绍下SQL生成器相关的内容。
需要支持多个事实表(流表)、多个维度表连表,其中一个事实表是主表,其他的均为辅助表。
维表变动也应当引起终数据库更新。
主表对辅助表为1:1或N:1,也就是说主表的粒度是细的, 辅表通过键来和主表连接。
流表中可能存在键一致的多张流表, 需要通过全连接关联。键不同的表之间通过左连接关联。
只有连表和UDF,没有groupby操作。
要求同步延时较小,支持多种源和目标介质。由于查询压力在目标介质,所以查询qps没有要求。
明确需求后, 我们把SQL生成器总体功能分为两块:
同步生成SQL和建表数据
异步发布SQL和建表
之所以把生成SQL阶段做成同步是因为同步阶段内存操作为主,如果发现数据有问题无法生成SQL能做到快速失败。发布阶段调用Metrics需要同步等待较长时间, 每个发布步骤要做到有状态记录, 可回滚或者重试。所以异步实现。SQL生成器同步阶段的整体功能细化到小模块,如下图所示:
检查原始数据是否有问题, 无法生成SQL则快速失败。
参数检查:检查上游是否提供了基本的参数, 比如事实表信息(可以没有维表, 但是必须有事实表)。
表类型检查:检查数据来源类型是否支持。
分区字段检查:是否提供了大宽表分区字段。
连接约束:检查流表,维表连接信息是否正确。
主表性约束:检查主表是否含连接信息,键是否有ETL信息。
元数据检查:检查是否包含HBase配置信息。
主键修正:修正维表连接键, 必须是维表的键。
同步所有原始表和原始表的连接数据(比如源表同步进来, 生成1:1的HBase表)。
生成优先级队列:生成连接和发布等任务的执行优先级。
同步填充:填充源表对应的同步阶段HBase表数据,和对应的配置项, 类型转换(比如源表是MySQL表,字段类型要转换为HBase的类型), ETL填充, 添加消息队列(通过发送消息的方式通知下游节点运行)。
重复列修剪:删除重复的列。
空白列打标:对于满足一定条件(比如不需要在大宽表展示, 不是键列, 连接键列, 保序列)的列打上空白列标识。
保序字段填充:如果上游提供了表示数据创建时间的字段, 则用该字段作为数据保序字段, 没有则填充系统接收到数据的时间作为保序字段。
生成大宽表,填充SQL。
中间表填充:填充全连接产生的中间表。
连接关系升级:会在本文后面说明。
反向索引填充:填充“反向索引”信息。
消息填充:中间表添加消息队列(中间表更新可以触发下游节点)。
大宽表填充:填充大宽表数据。
连接链对齐:中间表和大宽表连接键对齐。
ETL填充:填充大宽表列的ETL信息。
分区字段填充:填充大宽表分区字段。
SQL填充:填充Flink同步表映射SQL语句, Flink计算SQL语句, Flink结果表映射SQL语句。
保存:把SQL和建表数据存入数据库, 之后的请求可以复用已有的数据, 避免重复建表。
异步发布阶段会把SQL语句发布到Flink。
假如有A、B两表连接,那么连接方式为A表的非主键连接B表主键。从时序上来说可能有以下三种情况:
B表数据先于A表数据多天产生
B表数据后于A表数据多天产生
B表数据和A表数据同时产生
下面我们就这三种情况逐一分析。
场景1:B表数据先于A表数据多天产生
我们假如B表数据存储于某个支持高qps的数据库内,我们可以直接让A表数据到来时直接连接此表(维表)来实现连表。
场景2:B表数据后于A表数据多天产生
这种场景比较麻烦。A表数据先行产生,因此过早的落库,导致B表数据到来时即使连接B维表也拿不到数据。这种场景还有一个类似的场景:如果AB连接完成后B发生了更新,如何让B的更新体现在宽表中?
为了解决这种问题,我们增加了一个“反向索引表”。假如A的主键是id,连接键是ext_id,那么我们可以将ext_id和id的值存储在一张表内,当B的数据更新时,用B的主键连接这种表的ext_id字段,拉取到所有的A表id字段,并将A表id字段重新流入Flink。
对系统整体流程有了解以后, 我们再来看看系统的设计模式选择,选择设计模式时,我们考虑到数据处理相关的开发工作存在一些共性:
拆解后小功能多
小功能存在复用情况
小功能执行有严格的先后顺序
需要记录小功能运行状态, 流程执行可回滚或者中断可恢复执行
由于数据处理任务的步奏比较冗长,而且由于每个阶段的结果与下阶段的执行有关系,又不能分开。
参考 PipeLine(流水线)设计模式[2],综合考虑后我们系统的整体设计如下图所示:
SQL生成器关键点, 就是把各个表(Meta节点)之间的关系表示出来。Meta之间的关系分为两类,分别是全连接关联和左连接关联(因为左连接关联涉及到数据的时序问题, 需要添加反向索引较为复杂, 所以和全连接区分了一下, 为了简化问题我们先执行全连接, 再执行左连接)。
我们要解决的问题是, 多个数据源同步数据进来之后, 按一定的优先级关联, 终得到一个大宽表并需要自动发布。抽象到数据结构层面就是:
每个同步进来的数据源对应一个叶子节点
节点之间有关联关系,关联关系有多类并有执行优先级
所有节点和关联关系组成一棵树
终得到一个根节点(大宽表)并发布
有了优先级队列的概念, 我们来构建树。构建主要分以下步骤:
首先得到四种优先级的任务, 优先级从高到低分别为:
优先级1, 六个节点的同步任务
优先级2,节点1、2、3和节点4、5的Full Join任务
优先级3,节点1、4和节点6的Left Join任务
优先级4, 发布任务
取优先级1的任务执行,同步进来六个数据源对应六个叶子。
取优先级2的任务并执行得到中间表1,2。
取优先级3的任务并执行,发现节点1、4有父节点, 则执行中间节点1、2分别和节点6 Left Join得到根节点。
取优先级4的任务并执行,发布根节点。
可以看到终的数据结构是一棵树, 通过这种方式我们能支持复杂sql的自动构建。进一步抽象, 这种“一个队列驱动一棵树生成”的模式可以解决一类问题:
问题的解决由一系列不同优先级的任务组成, 任务需要复用。
通过从队列取优先级高的任务的方式构建任务关系树。
后遍历树完成各个节点任务。
限于篇幅, 本文重点在于介绍自动生成sql功能开发中运用到的主要数据结构和设计模式思想。
目前我们实现了任意张表关联sql自动生成并发布, 整体延迟控制在2s以内。之后SQL生成器主要会针对方便接入更多第三方实时计算平台(比如Tisplus), 降低整体系统延迟工作展开。方便接入主要考验的是架构的设计, 也是本文着重写的点(包括数据结构和算法设计、设计模式的选择)。降低系统延迟则包括消息中间件优化,代码执行效率提升等。
相关链接 [1]https://book.douban.com/subject/26995807/ [2]https://blog.csdn.net/buyoufa/article/details/51912262
藏经阁
100本电子书免费下载
阿里技术人的“藏经阁”,收集了阿里技术人写的 100 本电子书,覆盖大数据、AI、loT、前端、小程序、Java等技术领域。不管是刚入职的萌新还是在某个技术领域已小有造诣的“码神”,希望藏经阁能让你淘到“惊喜”,在技术的道路上助你一臂之力!
点击“阅读原文”,立即下载电子书吧!
相关文章