你好,我是徐文浩。
在解读完GFS的论文之后,相信你现在对“分布式系统”已经有了初步的了解。本质上,GFS是对上千台服务器、上万块硬盘的硬件做了一个封装,让GFS的使用者可以把GFS当成一块硬盘来使用。
通过GFS客户端,无论你是要读还是写海量的数据,你都不需要去操心这些数据最终要存储到哪一台服务器或者哪一块硬盘上。你也不需要担心哪一台服务器的网线可能松了,哪一块硬盘可能坏了,这些问题都由GFS这个“分布式系统”去考虑解决了。
不过,GFS仅仅是解决了数据存储和读写的问题。要知道,只是把数据读出来和写回去,只能做做数据备份,这可解决不了什么具体、有意义的问题。所幸,在GFS这个分布式文件系统之上,谷歌又在2004年发表了MapReduce的论文,也就是一个分布式计算的框架。
那么,我们今天就一起来看看,MapReduce到底是要解决什么样的问题。而要解决这些问题的系统,又应该要怎么设计。
当你仔细了解MapReduce的框架之后,你会发现MapReduce的设计哲学和Unix是一样的,叫做“Do one thing, and do it well”,也就是每个模块只做一件事情,但是把这件事情彻底做好。
在学完这两讲之后,你不仅应该了解什么是MapReduce,MapReduce是怎么设计的。更重要的是理解如何对系统进行抽象并做出合理的设计。在未来你自己进行系统设计的时候,为各个模块划分好职责和边界,把“Do one thing, and do it well”落到实处。
如果让你来设计一个分布式数据处理系统,你觉得哪些特性在第一个版本里是特别重要的呢?
我相信答案可能是丰富多彩的。有些人可能会选择“性能”(Performance),分布式系统本来就是因为单机性能不够了,那么把性能视作重要的因素是理所当然的。有些人可能会选择“可伸缩性”(Scalability),只要增加更多的硬件节点,就能处理更大规模的数据,更快地处理原来的数据,那么我们就可以“性能不够,机器来凑”。
这些答案都没有错,不过,大部分人往往会漏掉一点,那就是“易用性”。
更具体一点,就是我们希望来使用这个分布式数据处理系统的人,最好意识不到“分布式”的存在。来使用这个系统的人,只需要撰写处理数据的业务逻辑代码,而不需要关心代码会在哪一台机器上执行、怎么去进行网络通信。撰写的代码只需要解决自身的工作,那就是数据处理的业务逻辑。也就是我们自己的代码,只需要有“单一职责”,而不是需要全盘考虑分布式系统的设计问题。
因为分布式系统中会遇到的这些故障和失败,是一个很常见的问题,但是这些问题并不容易处理。我们之所以开发MapReduce这样的系统,就是为了让没有分布式系统知识和经验的人,一样可以快速简便地去利用MapReduce处理海量的数据。
那么,整个MapReduce的论文,其实就是围绕着这一核心点来讲述和设计的。这篇论文,基本上可以看作是三个部分:
实际上,在2021年的今天,我们回头看2004年发布的MapReduce,是简单到可以说是简陋的。这也是为什么后续不断有各种各样的新系统出现,比如Spark、Storm、Dremel等。但是,尽管简单,MapReduce的设计其实非常干净利落,它从一开始就是奔着让开发者对“分布式”无感而去的。
那么今天这一讲,我们重点来看一看第一点,也就是MapReduce的计算模型和应用场景是什么,然后我们再和Unix下的管道做一个对比,看一看为什么说MapReduce继承了Unix的设计思想。
不过在直接看论文之前,我想请你先自己想一想,要针对存放在上千个节点的GFS上的数据,进行数据处理,你会怎么做?你会有哪些计算方式的需求呢?
我想了一下,最直接的方式就是在很多台机器上,同时来做运算,也就是进行并行计算,这样可以利用我们有上千个节点的优势。而需要的计算方式,抽象来说,无非是三种情况。
第一种,是对所有的数据,我们都只需要单条数据就能完成处理。比如,我们有很多网页的内容,我们要从里面提取出来每一个网页的标题。这样的计算可以完全并行化。
第二种,是需要汇总多条数据才能完成计算。比如,要统计日志里面某个URL被访问了多少次,只需要简单累加就可以了。或者我们需要更复杂一些的操作,比如统计某个URL下面的唯一用户数。而对于这里的第二种情况,我们就需要将所有相同URL的数据,搬运到同一个计算节点上进行处理。不过,在搬运之后,不同的URL还是可以放到不同的节点进行处理的。
第三种,自然是一、二两种情况的组合了。比如,我们先从网页数据里面,提取出网页的URL和标题,然后根据标题里面的关键字,统计特定关键字出现在多少个不同的URL里面,这就需要同时采用一二这两种情况的操作。
当然,我们可以有更复杂的数据操作,但是这些动作也都可以抽象成前面的两个动作的组合。因为无非,我们要处理的数据要么是完全独立的,要么需要多条数据之间的依赖。实际上,前面的第一种动作,就是MapReduce里面的Map;第二种动作,就是MapReduce里面的Reduce;而搬运的过程,就是Shuffle(混洗,这个概念稍后我会给你介绍)。
那么接下来,我们就一起具体看看MapReduce是怎么回事儿。
MapReduce的编程模型非常简单,对于想要利用MapReduce框架进行数据处理的开发者来说,只需要实现一个Map函数,一个Reduce函数。
Map函数,顾名思义就是一个映射函数,它会接受一个key-value对,然后把这个key-value对转换成0到多个新的key-value对并输出出去。
map (k1, v1) -> list (k2, v2)
Reduce函数,则是一个化简函数,它接受一个Key,以及这个Key下的一组Value,然后化简成一组新的值Value输出出去。
reduce (k2, list(v2)) -> list(v3)
而在Map函数和Reduce函数之外,开发者还需要指定一下输入输出文件的路径。输入路径上的文件内容,会变成一个个键值对给到Map函数。而Map函数会运行开发者写好的映射逻辑,把数据作为新的一组键值对输出出去。
Map函数的输出结果,会被整个MapReduce程序接手,进行一个叫做混洗的操作。混洗会把Map函数输出的所有相同的Key的Value整合到一个列表中,给到Reduce函数。并且给到Reduce函数的Key,在每个Reduce里,都是按照Key排好序的。
这里排好序并不是MapReduce框架本身的核心需求,而是为了技术上实现方便。因为我们要把相同Key的数据放到一起处理,而通过一个HashMap把所有的数据放在内存里又不一定放得下。那么利用硬盘进行外部排序是一个最简单的,没有内存大小依赖的对数据根据Key进行分组的解决办法。最后,在拿到混洗完成,分好组的数据之后,Reduce函数就会运行你写好的化简逻辑,最终输出结果。
如果你熟悉设计模式的话,你会发现在实现一个MapReduce程序上你需要做的事情,其实就是一个典型的模版方法模式(Template Method Pattern)。而MapReduce与其说是一个分布式数据处理系统,不如说是分布式数据处理框架。因为MapReduce框架已经设定好了整个数据处理的流程,你只需要实现Map和Reduce这两个接口函数,就能完成海量的数据处理程序。
别看在MapReduce框架下,你只能定义简简单单的一个Map和一个Reduce函数,实际上它能够实现的应用场景,论文里可列了不少,包括以下六个:
下面,我们就主要来关注一下前两个场景的用途,看看最简单的两个场景是如何通过MapReduce来实现的。然后,我们可以把其中的第二个场景和Unix下的Bash脚本对应起来,来理解为什么我说MapReduce的设计思想,就是来自于Unix下的Bash和管道。
至于剩下的更复杂的场景,你可以自己试着思考看看,哪些场景可以怎么通过MapReduce或者Bash来实现。
分布式grep
在日常使用Linux的过程中,相信你没少用过grep这个命令。早年间,在出现各种线上故障的时候,我常常会通过grep来检索各种应用和Web服务器的错误日志,去排查线上问题,如下所示:
grep "error" access.log > /tmp/error.log.1
在单台Linux服务器上,我们当然可以用一个grep命令。那么如果有很多台服务器,我们怎么才能知道在哪台机器上会有我们需要的错误日志呢?
最简单的办法,当然就是在每台服务器上,都执行一遍相同的grep命令就好了。这个动作就是所谓的“分布式grep”,在整个MapReduce框架下,它其实就是一个只有Map,没有Reduce的任务。
在真实的应用场景下,“分布式grep”当然不只是用来检索日志。对于谷歌这个全球最大搜索引擎来说,这是完美地用来做网页预处理的方案。通过网络爬虫抓取到的网页内容,你都可以直接存到GFS上,这样你就可以撰写一个Map函数,从HTML的网页中,提取网页里的标题、正文,以及链接。然后你可以再去撰写一个Map函数,对标题和正文进行关键词提取。
这些一步步的处理结果,还会作为后续的反转网页-链接图、生成倒排索引等MapReduce任务的输入数据。
实际上,“分布式grep”就是一个分布式抽取数据的抽象,无论是像grep一样通过一个正则表达式来提取内容,还是用复杂的算法和策略从输入中提取内容,都可以看成是一种“分布式grep”。而在MapReduce这个框架下,你只需要撰写一个Map函数,并不需要关心数据存储在具体哪台机器上,也不需要关心哪台机器的硬件或者网络出了问题。
统计URL的访问频次
了解了分布式grep,我们再来看看统计访问频次。这里,我们先以极客时间的专栏用户访问日志作为例子,来看看MapReduce可以怎么来统计访问频次。
下面放了一个表格,我们把它叫做url_visit_logs 。在这个表格里面有三个字段,分别是:
那么,作为像谷歌这样的搜索引擎,它通常都会有统计网页访问频次的需求。访问频次高的网页,通常可以被认为是内容质量高,会在搜索结果的排名里面,排在更前面的位置。
如果只是极客时间的网页,我们可以把这张表里面的数据放在数据库里面,通过一句SQL就可以完成了:
SELECT URL, COUNT(*) FROM url_visit_logs GROUP BY URL ORDER BY URL
但是,如果考虑全网的所有数据网页访问日志,数据库就肯定放不下了。我们可以把这些日志以文件的形式放在GFS上,然后通过MapReduce来做数据统计。
Map函数很简单,它拿到的输入数据是这样的:
Map函数只需要通过一个split或者类似的函数,对Value进行分割,拿到URL,然后输出一个List的key-value对。在当前的场景下,这个List只有一个key-value对:
这个URL肯定不只被访问了一次,因为MapReduce框架会把所有相同URL的Map的输出记录,都混洗给到同一个Reduce函数里。所以在这里,Reduce函数拿到的输入数据是这样的:
Reduce函数的逻辑也非常简单,就是把list里面的所有Value计个数,然后和前面的Key拼装到一起,并输出出去。Reduce函数输出的list里,也只有这一个元素。
这样一个MapReduce的过程,就和我们之前通过SELECT + GROUP BY关键字执行的SQL起到了同样的作用。
事实上,SQL是一种申明式的语言,MapReduce是我们的实现过程,后面我们在讲解Hive论文时候,你就会发现,Hive的HQL就是通过一个个MapReduce程序来实现的。而前面的整个MapReduce的过程,其实用一段Bash代码也可以实现。
cat $input |
awk '{print $1}' |
sort |
uniq -c > $output
在这段Bash代码中:
如果和MapReduce框架对照起来,你会发现:
那么,对于开发者来说,只要自己实现Map和Reduce函数就好了,其他都不需要关心。而对于实现MapReduce的底层框架代码,也可以映射到读取、外部排序、输出,以及通过网络进行跨机器的数据传输就好了。在这个设计框架下,每一个组件都只需要完成自己的工作,整个框架就能很容易地串联起来了。
通过这节课,我给你介绍的两个典型的MapReduce例子,相信你现在对如何通过MapReduce这个分布式框架,来进行数据处理就已经了解清楚了。
作为一个框架,MapReduce设计的一个重要思想,就是让使用者意识不到“分布式”这件事情本身的存在。从设计模式的角度,MapReduce框架用了一个经典的设计模式,就是模版方法模式。而从设计思想的角度,MapReduce的整个流程,类似于Unix下一个个命令通过管道把数据处理流程串接起来。
MapReduce的数据处理设计很直观,并不难理解。Map帮助我们解决了并行在很多台机器上处理互相之间没有依赖关系的数据;而Reduce则用来处理互相之间有依赖关系的数据,我们可以通过MapReduce框架自带的Shuffle功能,通过排序来根据设定好的Key进行分组,把相同Key的数据放到同一个节点上,供Reduce处理。
而作为MapReduce框架的使用者,你只需要实现Map和Reduce两个函数,并且指定输入输出路径,MapReduce框架就会帮助你完成整个数据处理过程,不需要你去关心整个分布式集群的存在。另外,不仅仅是MapReduce的用户,只需要考虑“单一职责”,实现自己的Map和Reduce函数就好了。即使作为MapReduce的框架实现,也能够把数据读取、数据输出、网络传输、数据混洗等模块单独拆出来,实现起来也很容易。
Map和Reduce这两个函数虽然非常简单,但是对于输入输出的格式,以及内部具体的逻辑代码没有任何限制,是完全灵活的,足以完成从日志分析、网页处理、数据统计,乃至于搜索引擎的索引生成工作。
事实上,我们在论文中也可以看到,谷歌在多种不同的场景中,都使用了MapReduce,包括:
这些复杂的问题,都可以通过一个或者多个MapReduce的任务的串联来实现。
那么,相信到这里,你已经迫不及待想要知道MapReduce底层是怎么实现的了,它是怎么能让开发者不用去关心下面的分布式系统的存在的呢?别着急,在下一讲,我会带你深入到MapReduce框架本身的实现中去。
在前面的URL访问频次的应用场景中,我们只是简单地做了单个URL的访问频次统计。如果我们想提出两个新需求,一个是不再按照URL统计访问频次,而是按照域名统计,第二个是统计结果要按访问的人数多少从高到底排序,我们应该怎么做呢?这个逻辑我们也能通过Bash来实现吗?
欢迎在留言区分享你的答案和思考过程,我们一起交流讨论。也欢迎你把今天的内容,分享给更多的朋友。
评论