你好,我是徐文浩。

过去的两讲,我们分别了解了Megastore的整体架构设计,以及它对应的数据模型是怎么样的。Megastore在这两点的设计上都非常注重实用性。

在架构设计上,它把一个大数据库分区,拆分成了很多小数据库,互相之间相互独立。这样可以并行通过多组Paxos来复制每一个分区的事务日志,来解决单个Paxos集群的性能瓶颈问题。

在数据模型里,Megastore更是进一步地引入了“实体组”这个概念,Megastore的一阶段事务,只发生在单个实体组这样一个“迷你”数据库里。这些设计,都大大缓解了大型分布式数据库可能会遇到的各种单个节点的极限压力。

不过,在Megastore里我们还有一个非常重要的问题需要解决,那就是跨数据中心的延时问题。我们在解读Chubby的论文里已经了解过Paxos算法了,任何一个共识的达成,都需要一个Prepare阶段和一个Accept阶段。如果我们每一个事务都要这样两个往返的网络请求,我们的数据库性能一定好不到哪里去。所以,Megastore专门在原始的Paxos算法上做了改造和优化。

那么,今天我们就一起来看看Megastore具体是怎么做的。通过这一讲的学习,你可以了解这样两点:

  1. Megastore是如何优化改造Paxos的算法,它是如何做到既利用了单Master的性能优点,又不用承担单Master的可用性缺点的。
  2. Megastore为什么要把每一个实体组,变成一个迷你数据库,它的架构设计如何限制了我们使用的数据模型。

通过这一讲,我不仅希望你了解Megastore“是什么”,更要理解里面的设计是“为什么”,并且能够在理解它的优点的时候,明白它又有哪些不足之处。

为什么Chubby是个粗粒度锁?

我们先来回顾一下我们在Chubby论文中讲解过的Paxos算法。在Chubby里的Paxos,有这样两个特点

这两个特点,使得Chubby很容易使用,但是也有很大的局限

首先是所有的读写都通过Master进行,使得单个Master会成为全系统的性能瓶颈;其次是Master故障切换的时候,系统虽然是有“容错”能力的,但是会有一段较长的不可用时间。而且,尽管所有的其他节点,只有在Master出错的时候才有可能转变成Master节点,我们仍然要给它们和Master一样的硬件配置,而这个配置在99%的时间里,是相对空闲的。

这也是为什么Chubby,没有被直接用来为Bigtable提供事务功能,而是只作为一个粗粒度的锁。因为这样,Chubby只需要管理极少发生变化的元数据,确保元数据的一致性,而不需要去管理高并发的数据库事务请求。

而这种先选举出单个Master,然后都基于Master进行操作的Paxos算法实现,显然是不适合Megastore的。而且除了这两个特性之外,这个单Master的策略对于Megastore还有一个难以接受的点,那就是网络延时

不要忘记,Megastore最重要的特性之一,就是“跨数据中心复制”。明明用户离得最近的数据中心是在上海,你非要把请求先发送到在北京的Master,然后再让Master向上海的数据中心发起提案,这可就白白多出了很大一段的网络延时。

图片

这么看来,Megastore显然应该让提案可以从集群里的任何一个节点发起。也就是,用户的请求会到达离他最近的数据中心,然后对应的提案也是从这个数据中心的Paxos节点发起的。这个,也就让我们重新回到了最初的Paxos算法。

不过,选举出一个Master的算法也是有好处的,那就是Master可以减少Paxos算法的网络开销。

这个优化是这样的:对于原本是两阶段的Prepare-Accept的请求,我们可以在Accept请求里,带上下一次Paxos算法里的Prepare请求。因为所有的外部请求都会先到达Master,然后由Master发起提案,所以这样的策略在实现上非常容易。而且因为请求都是从Master发起的,所以达成共识的过程中很少会有冲突,往往一个Prepare-Accept的过程,共识就已经达成了。

这样,原先是两阶段的Prepare-Accept,常常只要一个网络请求就已经完成了,我们的Paxos算法在大部分情况下,就变成一个一阶段就能完成的了。

Megastore面临的Paxos挑战

基于Master的Paxos算法,既有缺点,就是所有的读写都要通过Master,又有优点,那就是能够通过合并两次Paxos算法的Accept和Prepare阶段来减少网络请求。那么,我们能不能只享受这个办法的优点,又不用去承担这个算法的缺点呢?

这个,就是Megastore想到的办法,也就是基于Leader的Paxos算法。接下来,我们分别就从读和写两方面,来看一看Megastore是怎么做的。

两个保障

我们在上一讲里讲过,Megastore支持三种读数据的方式,分别是current、snapshot,以及inconsistent。为了确保数据的“可线性化”,我们最关注的当然就是current读,对于current读来说,Megastore其实就是要作出这样两个保障:

数据的快速读

要做到数据的快速读取,最直观的想法,就是不要从Master读取,而是从本地的副本读取就好了。但是,Paxos并不是一个两阶段锁的复制算法,而是一个“共识”算法,这个意味着,你的本地副本在“共识”达成之后,并不一定知道最新的“共识”是什么。即使知道共识,本地的Bigtable里也不一定已经更新了这份数据。

说不知道最新的共识是什么,是因为Paxos的共识算法,只需要超过一半的节点投票达成共识就可以了。你的本地副本,可能会因为网络故障,在最新一轮的共识中没有参与。而即使参与了投票,并且知道了共识,还会面临一个问题,那就是实际的事务日志写入到本地,与这个对应的更新应用到本地的Bigtable,还有一个时间差。

所以,Megastore在每个数据中心,都引入了一个叫做协同服务器(Coordinator Server)的节点,这个节点是用来追踪一个当前数据中心的副本里,已经观察到的最新的实体组的集合。对于所有在这个集合里的实体组,我们只需要从本地读数据就好了。如果实体组不在这个集合里,我们就需要有一个“追赶共识”(catch up)的过程。

所以,实际的Megastore数据的快速读取,比简单的一句“从本地副本读”,还是要复杂一些的。它的具体过程是这样的。

第一步,是查询本地的协同服务器,看看想要查询的实体组是否是最新的。

第二步,是根据查询的结果,来判断是从本地副本还是其他数据中心的副本,找到最新的事务日志位置。

所谓的日志位置,你可以认为是一个自增的事务日志的ID。因为我们的事务日志,并不像单机的数据库那样,写到文件系统里,而是写到Bigtable的一张表里的。因为Bigtable支持单行事务,所以事务日志作为一行数据写到Bigtable也是一个原子提交。而Bigtable的数据存储又是按照行键连续存储的,也非常适合事务日志的这种追加写的特性:

接着第三步,就是“追赶共识”的过程了。一旦从哪个副本启动“追赶共识”的过程确定了,我们就只要这样操作就好了:

第四步,如果我们在“追赶”的过程中,是通过本地副本来发起整个追赶过程的。那么一旦这个追赶的过程完成,意味着本地的数据已经更新到了最新的状态。那么它会向本地的协同服务器发起一个Validate的消息,让协同服务器知道这个实体组的数据已经是最新的了。这个消息不需要等待协同服务器确认返回,因为即使它失败了,无非是下一次读数据的时候,把前面的整个过程再走一遍就是了。

等到前面的这个过程完成,在第五步,我们就根据使用了哪一个“副本”来“追赶共识”,通过我们拿到的日志位置和时间戳,去问它的Bigtable要数据。如果这个时候,这个副本不可用了,那么我们就要再找一个副本,从前面的第三步“追赶共识”开始重复一遍。

图片

这么一看Megastore的查询似乎还挺复杂的,但是其实你不用担心。因为在实践当中,我们的数据中心,不是慵懒的Paxos城邦里的居民,想要参与共识算法的时候就来参与,没空的时候就不来参与。我们分布在多个数据中心里的Paxos集群,是尽全力参与整个共识过程的。在绝大部分情况下,我们数据的写入,会在所有的副本中都写入成功。网络中断和硬件故障,毕竟是低概率事件。

这也就意味着,一般来说,我们的客户端请求只需要通过前面的第一步、第二步的第一小步和第五步这三个步骤,就能获取到数据,其中的第一步、第二步的第一小步这两个步骤,也是并行进行的,而且这些请求都是来自本地数据中心的副本里。而第二步的第二小步、第三步和第四步,都是在“容错”情况下,我们仍然要确保整个系统的“共识”和整个分布式系统的“可线性化”的表现,而设计出来的步骤。

这整个读数据的过程,其实就是论文中的4.6.2部分,以及对应的图7,你可以再对照着仔细看一下。

数据的快速写

Megastore读数据的思路很直接,其实就是尽可能从本地读取。但是到写数据的时候,问题就没有那么容易了。因为我们前面刚刚说过,我们既希望像基于Master的Paxos那样,可以把两阶段的Prepare-Accept过程,合并成一个过程。但是我们又不希望,单个Master成为我们写入数据的瓶颈。所以,Megastore采用了一个叫做基于Leader(Leader-Based)的实现方式。

这个思路,首先是借鉴基于Master的合并策略,把前一次的Paxos算法的Accept和后一次的Prepare的请求合并。不过,相比于Master节点一旦故障,我们就有一段不可用时间。基于Leader的算法,仍然可以在Leader节点故障的时候,正常完成整个算法过程。我们只要在Leader故障或者不可用的时候,直接退回到原始的Paxos算法就好了。

那接下来,我们就来看看这个基于Leader的算法是怎么样的。

首先,为了确保我们的“可线性化”要求,在任何一个副本去写入数据之前,我们会先“读”一次数据,确保能够拿到下一次事务日志位置、最后一次写入数据的时间戳,以及哪一个副本在上次一次Paxos算法的时候,被确定是整个集群的Leader。

那么这个Leader是谁,我们是怎么知道的呢?其实这是我们在每次提交事务的时候,“写”进去的。我们的每一次事务写入的“值”(也就是事务内容),除了原本要写入到数据库里的数据之外,还会加上对于Leader节点的“提名”,一旦事务写入成功,我们就认为提名通过了,下一次Paxos算法的Leader也就确定了。

当确认了下一个事务日志的位置,以及Leader是哪个节点的时候,我们就可以去写入数据了,这个过程是这样的:

  1. 首先是一个叫做Accept Leader的阶段,客户端会先尝试直接向Leader副本发起一个Accept请求。并且这个请求,会设定为Paxos算法中的第0轮的Accept请求。如果这个请求被Leader接受了,我们就会跳转到后面的第3步,向所有的副本都发起Accept请求来达成共识。
  2. 如果第1步的请求失败了,那么我们就正常走一个Paxos算法的流程,向所有的副本,发起一个Prepare请求。Prepare请求里面带的提案编号,就是正常Paxos算法的提案编号,从1开始,用当前客户端见过的最大的编号+1。
  3. 然后是Accept阶段,也就是让所有副本都去接收客户端发起的提案。如果没有获得多数通过而失败了,那么我们就重新回到第2步,重新走Prepare-Accept的过程。
  4. 在Accept阶段成功之后,我们需要向所有没有Accept最新的值的副本,发起一个Invalidate的请求,确保它们的协同者服务器,把对应的实体组从Validate的集合中去除掉了。
  5. 最后是一个Apply阶段,在Apply阶段,客户端会让尽可能多的副本,去把实际修改应用到数据库里。如果发现要应用的数据和实际提案的数据不同,会返回一个冲突的报错(conflict error)。

图片

整个写入的过程,也对应着论文里的图8,我也把这张图放在了这里,你可以对照着看。

可以看到,Megastore里面通过Paxos实现的事务,和我们之前看过的Paxos算法和数据库事务有一点不同。

在Paxos算法层面,无论从哪一个客户端的数据中心发起事务,我们都会先尝试向Leader所在的副本提交。那么,这就和基于Master的Paxos实现一样,我们可以先在Leader这个单节点解决并发冲突。这样如果有并发冲突,我们不会需要通过多轮的Paxos算法才能解决冲突。而如果Leader节点挂掉了,也没有关系,我们可以直接退回到多轮协商的Paxos算法。这样,我们也不会遇到Master挂掉,我们就要等待Master恢复才能推进事务,导致整个系统的可用性偏弱的问题。

不过,如果我们的写入请求都要发送给Leader副本,那是不是做不到数据都是“就近”写入的呢?这个,我们就要重新回到Megastore的数据模型里了。

在Megastore的数据模型里,每一个实体组,就是一个“数据库”,对应的Accept包含的下一次Prepare的Leader,其实是针对同一个“实体组”的。而同一个“实体组”,往往都会是在同一段时间、同一个地域内进行多次写入的。那我们在每次的Paxos算法实例去“提名”下一个Leader的时候,只要提名此时响应最快的最近的副本就好了。这样,我们大概率下一次的数据写入,也会是“就近”的。

比如,上一讲里我们就看过,User这个实体组里,有很多Photo这些子实体,这个模型最合适的就是一个相册的应用。那么,因为一个用户是一个实体组,而用户不可能频繁地搬家到不同的城市。就比如我住在上海,拍摄上传的照片大概率都在上海。自然Megastore就可以根据前一次写入的时候,离哪个数据中心近,就提名哪个数据中心的副本作为Leader就好了。

而如果我出门旅游去了广州,那么只有第一次上传的照片,会需要跨越地域提交到在上海的Leader副本,接下来旅游连续拍摄的照片,又会就近提交到广州的数据中心。可以说,Megastore的这个策略,很好地利用了我们的数据写入,是有局部性的这个特征。

不过,我们也要看到,这个策略是和Megastore的数据模型,以及开发者设计的数据表结构高度相关的。如果我们设计了一个订单实体,Order作为实体组,那么订单可能来自全国各地,我们就会遇到大量的事务提交需要跨地域的问题了,会非常影响整个系统的性能。

图片

在数据库事务层面,Megastore也和一般的数据库事务稍有不同。我们传统的数据库事务,事务提交成功了,就可以直接读数据了。在论文里称之为,在提交点(commit point)和可见点(visibility point)是相同的。

但是在Megastore的数据写入里,在Paxos算法确认哪个提案胜出之后,事务提交已经完成了。而此时,并不是所有的副本都已经接受了这个最新事务的“值”,也不是所有的协同服务器,都已经把对应的实体组在自己这里标注为“失效”。只有当这两者之一完成之后,我们才能确保下一次读取对应副本的数据,一定能读取到实体组最新版本的数据。

到这里,相信你也能明白,我们一开始Megastore的“两个保障”里所说的,“写入,可能在被确认之前就被观察到”究竟是怎么一回事儿了。在数据写入的第3步,Accept已经完成了,事务已经提交了。但是,对应的数据更新还没有同步到所有的副本,这个时候,可能某一个节点的副本已经更新完成了。所以用我们前面的数据读取过程,从这个副本读取数据的时候,会读取到最新版本的数据。但是,在其他副本,这个数据可能还没有更新到Bigtable的数据表里。也就是,并不是所有副本都已经完成了事务的“应用”,所谓的事务确认(acknowledge)的过程还没有完成。

系统整体架构

因为事务提交成功,和数据在实际存放的Bigtable里可见,其实是分开的两个步骤。这一下子就凸显出协同服务器的重要性出来了。

Megastore的事务日志,是存放在Bigtable里,Megastore的数据库数据也存放在Bigtable里,我们在每一个数据中心里,都有这样一份数据副本。但是此时此刻,到底本地Bigtable的事务日志,以及数据是不是最新版本,我们并不知道。这些信息,其实都是通过协同服务器来维护的。

但是这也意味着,我们为整个系统引入了一个新的“故障点”。不过,好在协同服务器的这些数据,都只维护在内存里,而且只需要维护本地数据中心的实体组是否是最新的这样一个状态。并且它也没有任何外部依赖,即使节点故障,重新启动一个新的节点,里面的数据也可以通过Paxos的“多数投票”过程,恢复出来。

因为足够简单,所以协同服务器会比Bigtable更加稳定。

不过,只要会出错的一定会出错。我们同样需要考虑它的“容错”问题,在Megastore里,协同服务器的容错是这么来处理的:

换句话说,也是一旦协同服务器觉得网络出现分区了,那么就放弃自己维护的本地状态,退回到原始的Paxos“多数投票”的策略。

图片

最后,到了这里,整个Megastore的系统架构也就呼之欲出了。那就让我们来看一下整个Megastore系统的整体架构。

横向来看,是这样的:

而为了进一步提升性能和服务器使用的效率,Megastore对于每一个数据中心的副本,还分成了三种不同的类型:

可以看到,尽管Megastore已经支持了“可串行化”的数据库事务,在整个分布式系统下,也是“可线性化”的。但是为了性能考量,我们仍然会在实践中,提供一些异步更新的节点供数据读取,只是我们需要明确让客户端知道这一点。

小结

好了,到这里,我们就通过三节课的时间,把Megastore的论文解读完了。可以看到,Megastore的跨数据中心复制机制,做了不少优化动作。

相比于固定选取一个服务器作为Master,Megastore选择了在每一个Paxos算法实例里都能指定一个Leader的方式,既享受了基于Master算法的高性能,也避免了基于Master容易出现故障切换时间的可用性损失。同时,只要我们的数据模型合适,选择Leader的策略得当,我们的大部分数据写入,都会就近选择本地副本作为Leader。

在系统的整体架构上,Megastore完全使用Bigtable用来存储事务日志,以及数据库内的数据。然后通过一个协同服务器,来存储数据是否是最新的这样一个信息。通过协同服务器,我们就剥离出去了在多数据中心下,保障数据是“可线性化”的这个复杂性。

而为了减少服务器的硬件消耗,Megastore又把Paxos集群里的参与者,分成了三种。分别是包含完整日志和数据的完全副本,只参与投票、有事务日志但是没有数据库数据的见证者副本,以及不参与投票、但是保留完整数据的只读副本

不过,Megastore并没有真的突破物理限制。每一个数据库事务,仍然是要至少一次跨数据中心的Accept请求给所有的Paxos里的参与者。而为了保障可线性化,每次数据写入之前,都需要先读一下数据,来确保本地副本的数据是最新的。并且考虑到跨数据中心的延时,Megastore的一个实体组,最多也只能支持每秒几次的事务请求。当然,由于每一个独立的实体组,都是一个“迷你数据库”,我们整个数据表里,能够支持的并发请求还是很大的。

回顾过去三讲,我们可以看到,Megastore的确做到了跨数据中心同步复制、数据库事务、数据库Schema等一系列特性。但是,为此,Megastore也对数据模型作出了很多限制。而且如果你要善用Megastore,发挥出Megastore的性能,你也需要了解Megstore的底层实现。

所以,Megastore并没有成为市场上流行的数据库。不过,Megastore本身充分利用Bigtable,思考应用层的数据模型和系统架构设计的关系,以及对于Paxos算法实现的优化,对我们学习分布式架构,有着很强的指导意义。希望通过这三讲的学习,你不仅能够了解Megastore的整体架构,也能够学会如何从实践出发,通过利用好现有的系统,实现复杂而宏伟的系统目标。

推荐阅读

Megastore虽然只是一个过渡性的数据库产品,但是它的整个设计思路仍然有大量我们可以借鉴的地方。不过对于Megastore的剖析和介绍材料相对比较少,这里我放上了2008年,Google I/O里对于App Engine里的Datastore的1小时的讲座视频链接,这是少有的通过视频讲解Megastore的使用和原理的材料,你可以看看。

而Megastore的多数据中心同步复制数据的机制,是基于Paxos的。如果你还没有看过原始的Paxos论文,建议你一定花时间去读一下Paxos Made Simple这篇论文。

思考题

最后,还是给你留一道思考题。

其实在后面的Spanner的论文里,提到了Megastore的写入的吞吐量很糟糕,结合你过去三讲对于Megastore系统整体架构的理解,你觉得这是为什么呢?Megastore数据写入的吞吐量的核心瓶颈在哪里?我们是否有办法改造然后优化这个写入性能呢?

欢迎在留言区,分享出你的思考过程和答案。也欢迎你把今天的内容分享给你的老师、同学和朋友们。

评论