作者介绍
*全文4767个字,阅读时长约12分钟。背景
随着数字化进程的加速,数据处理的规模和速度需求持续攀升。传统数据库系统在处理大规模数据时,存在单表记录数不超过500万条的限制,这已成为业务发展的瓶颈。为了解决此问题,分布式数据库通过横向扩展来分担单节点的压力。然而,随着数据规模的增长,数据库节点的数量也会增加,这会导致成倍增长的运维问题和对IT运维工作的需求。
同时,移动互联网、智能设备、汽车和物联网终端的发展,对并发访问和响应时间提出了更高的要求。现有的解决方案通常基于独立的内存缓存来满足热点数据的读写需求,然而由于缓存容量有限且热点数据不在数据库中,导致无法参与统计分析,数据的价值没有得到充分利用,仍然存在优化空间。
除此之外,随着大数据应用场景的快速普及与创新业务的发展,传统的数据管理方案已愈发难以满足海量数据实时分析的需求。实时应用、 高通量在线交易和实时分析等混合负载的场景成为业务的基本诉求。 面临这些新的挑战,我们认为有以下 三 个核心命题 要去回答:
- 如何在不消耗大量算力资源的情况下,低成本地满足海量数据的计算要求?
- 如何设计一个高效、易用的数据库系统来满足不同的业务诉求?
- 如何避免差异化实现,高效构建一个统一行列存、混合负载的架构?
有界理论打破 大数据算力增长挑战
关系代数理论诞生于上世纪80年代,为关系数据库系统奠定了基础。 但是随着数据规模的不断增长,传统的数据库无法解决的问题越来越多。
因此,人们重新定义了大数据及其基于并行计算的解决方案。 这种方案的核心理念是通过大量的计算资源来满足数据的计算需求。然而,计算资源的增长速度远远跟不上数据的增长速度,同时,数据库节点数量和运维复杂度也呈指数级增长,这成为大数据处理所面临的一项关键挑战。
但通过观察具体业务不难发现一个现象,绝大部分查询涉及的数据量与全量数据相比是微乎其微的, 如果能针对查询找出一个特定的,包含所有正确结果的小数据集,那么就可以节省大部分针对无关数据的扫描和计算开销,这正是有界计算的出发点。
有界计算的关键挑战是如何避免数据扫描而找出查询相关的小数据集。 首先需定义一个概念为 “访问约束” ,其意义为对于特定的X取值,其对应的Y的取值有且仅有N种可能,这里的N可理解为通过已知的X找到对应Y的边界。 例如在知道某位同学对应班级的前提下,这位同学的ID取值不可能超过班级最大人数。
这种属性之间的语义在关系理论中并没有被识别和利用,下面我们通过一个简单的例子看下如何运用访问约束来解决查询问题 , 直观感受有界计算与传统方法的差异: 我们想找出2019年5月份我朋友在NYC去过的餐馆的价位。 按传统方式需要将朋友关系表friend和就餐表dine进行连结后再通过餐馆信息表cafe找出其价格,但这样就涉及大量数据扫描和连结计算开销巨大,即使使用索引替代全表扫描也会因为随机IO使得提升有限。
而 有界计算通过特定属性间的访问约束(Access Constraint),仅需要访问三个有限的小数据集,避免了大量无关数据之间的计算。
图1 有界计算理论示意
例子中提到的访问约束是基于YashanDB列式存储引擎实现的。 将特定X取值对应的Y连续存储,可以基于轻量化算法实现去重和压缩,并在计算时还原原始取值确保语义完整。 用户执行查询时优化器根据已有访问约束判断能否实现查询加速,无需人工干预或修改SQL语句。 与此同时,访问约束也不是一成不变的, 对于持续变化的业务数据,可以在业务运行过程中不断刷新已有访问约束, 我们发现其维护成本远低于物化视图。
有界计算适用于记录中存在大量重复信息的详单分析场景,其原型实现已在电信详单管理和北美航空记录分析两个真实场景中完成验证,最大加速效果可达到100000倍。 基于有界计算可以大大降低大数据分析的算力要求,拓展数据库系统的能力边界。 该理论也获得了2018年的Royal Society Wolfson Research Merit Award(英国皇家学会沃夫森研究优秀奖)。
自主技术架构 面向混合负载的存储与SQL技术
随着通信和互联网技术的不断发展,业务对数据管理的实时性要求持续提升。 传统数据库受制于软硬件处理能力限制,将交易型操作和分析型查询分而治之,带来了数据分析的滞后性和数据库运维上的复杂性。
对于新型业务而言更强调混合负载实时数据管理的能力,这也需要数据库系统在存储引擎到SQL引擎上采用新的技术与架构。下面我们将详细介绍YashanDB如何从混合存储及SQL执行两方面实现混合负载能力的。
混合引擎架构
为了兼顾高并发数据访问和实时数据分析两类截然不同的需求,YashanDB在存储架构上大胆尝试多种数据组织形式。 首先是 支持面向高并发短事务的行式存储,简称行表(Heap),将一条记录的多个字段连续存储在一起。 而作为存储的最小单元,同一个数据块上存储了多条完整记录和对应事务信息,这种方式可以最小化数据访问的开销,并通过支持原地更新进一步降低数据修改的管理成本。
另一方面,为了管理海量数据并支持实时分析, YashanDB还支持冷热分离的列式存储,简称列表(LSC, Large-scale Storage Columnar Table)。 与行表最大的差异是,列表将不同记录的相同字段连续存储在一起。由于大部分查询仅用到记录中的部分字段,因此按字段连续存储可以避免整行读取,从而提高IO资源利用率。与此同时,同一字段存在重复取值,基于轻量化压缩算法可实现存储空间的成倍缩减。列表相较行表对于写入不太友好,因为一条记录写入可能要访问多个数据块,造成大量Cache Miss和额外IO。
图2 行列存示意图
值得一提的是,存储引擎的能力不仅是数据组织与管理,还包括事务、持久化等。YashanDB对于上述两类数据组织均提供完整事务和持久化能力,使得针对快速变化数据的高性能分析不再高不可攀。
业界在实现行列混合存储方面仍存在一定的优化空间:采用读写存储的内部转换,为了避免数据变化对列存储数据的影响,需要预留数据量两倍的内存空间;如按副本方式分别管理TP和AP数据,虽然可以在资源上进行隔离,但引入了数据转化的延迟与开销。
YashanDB提出了一份数据上的混合负载能力,在保证完成ACID能力的前提下,提供可更新列存数据存储,通过不同的SQL执行引擎来同时实现高通量事务处理和低时延复杂查询。 其架构如下图所示,主要差异在于数据仅保存一份,所有已提交的变更都可以通过查询反映到结果集中。这里面包含了三个技术点:
图3 YashanDB混合负载的统一存储方案
支持快速更新和查询的列式存储组织,通过In-place Update解决数据变更导致的空间膨胀和无效数据回收问题;
面向交易和分析负载的差异化需求,通过不同执行模型最大化资源利用率,火山模型支持低时延短事务,向量化模型支持全面扫描数据分析;
细粒度配置的资源与调度管理,避免不同类型处理之间的资源争抢和固定配置带来的资源闲置,会话级配置结合业务特征灵活调整。
SQL引擎设计与关键优化
YashanDB的SQL引擎为了达到极致性能, 同时支持了行列两类算子分别满足低时延短事务和大数据量查询场景的差异化需求。 因此优化器的实现挑战要高于传统数据库系统。这里列举了我们实现的三个关键能力:
图4 YashanDB 优化器
- 面向差异化代价模型的行列混合评估:针对行列算子建立独立的代码模型,在最优计划选择时考虑行转列或列转行的整体代价,并结合启发式算法提前排除不理想的备选计划,避免搜索空间过大的问题。
- 行列统一的并行优化框架:YashanDB的高性能查询能力得益于并行计算的应用。针对行列算子,使用一套并行框架可以显著降低优化器的复杂度,避免需要根据算子类型进行差异化实现的大量访问路径。这套框架的并行执行单位为Pipeline,能够支持单算子的并行,在不同Pipeline之间需要通过PX算子进行数据的交换,PX算子适用于单机和分布式两种场景下不同的交换策略。
- 面向特定模型的动态优化规则:YashanDB的架构目标是行列统一,但在具体实现过程中,由于算子实现难度的差异,需要针对行列算子按照特殊规则进行调整。为了避免这类优化影响优化器的基本框架,YashanDB的优化器会先生成不区分行列的通用计划,然后根据行列算子的特点进行动态优化调整。这其中包括部分列算子未实现的内置函数,可以通过动态转换为行算子来计算,同时也提高了优化器的可维护性。
硬件配置:2288虚拟机(16核,160G内存,3.4T SSD) 软件版本:OS(CentOS 7),DB(YashanDB 22.2、Oracle 19C Inmemory 、Greenplum 6.17.1) 测试模型:TPC-H 100G数据
总体来说,SQL引擎的整体性能和架构的持续演进非常重要,而 优化器作为关键能力,需要充分发挥各执行算子的优势,并减少差异化规则带来的实现复杂性。 我们正在探索基于深度学习的查询优化,但目前面临冷启动和假阳性等挑战。
深度兼容性和一键业务迁移
作为一款面向企业用户的新型全自研数据库系统,YashanDB需要考虑用户在切换到该系统时所面临的挑战: 一方面是业务系统需要改造以适应新的数据库系统,另一方 面是 数据搬迁过程如何实现平滑可控。
改造成本
数据迁移
其次是数据迁移。数据迁移的目标不仅仅是简单的数据导入/导出, 而是基于业务设计的全自动化处理 。 YashanDB的自动化迁移平台具备业务兼容性评估、一键数据迁移和数据完整性校验等功能。
- 业务兼容性评估为迁移计划提供必要的输入,识别当前数据库系统无法兼容的对象和SQL语句,并给出改造建议;
- 一键数据迁移可以满足存量数据搬迁和实时增量同步两类需求,目前支持Oracle/MySQL/PostgreSQL数据库系统;
- 数据完整性校验可以避免数据迁移在异常情况下的数据丢失/错误,自动识别并可在人工指导下自动修补错失数据,从而大大提升迁移的可靠性。
随着数据规模的爆发式增长,我们创新性地将有界计算理论转化系统能力,在 不消耗大量算力资源的情况下能够低成本地满足海量数据的计算要求。
同时 随着数字化转型的持续深入,很多客户都提出了数据驱动的实时业务决策, 这要求数据库能够满足混合负载,兼顾高通量数据变更和实时查询,因此我们设计了一套统一行列存、混合负载的架构。 同时充分考虑用户在切换到该系统时所面临的挑战,实现了高度的商业数据库兼容性,极大地降低了应用改造迁移成本。
当然我们不仅要考虑当前的需求,还要为未来的需求做好准备。 那随着AI等技术的快速发展,我们认为智能化机遇将会给数据库带来重大变革:
首先,面向大模型场景,数据 库管理的对象已经不再是关系表,而是Embeddings向量,这类对象的计算方式更复杂,且具有不可解释性,前景非常广阔。另一方面,机器学习也可以将传统数据库调优这类只有资深DBA才能搞定的任务变成固定的模型,大大降低了数据库的运维门槛;此外,NLP2SQL在大模型的赋能下让更多用户可以使用大数据分析。
未来,我们将持续探索更多创新技术的可行性和落地方案,拓宽数据库应用的广度和深度,为更多企业的数字化转型提供有力支撑。