你好,我是唐扬。
在21讲和22讲中,你的团队已经决定对垂直电商系统做服务化拆分,以便解决扩展性和研发成本高的问题。与此同时,你们在不断学习的过程中还发现系统做了服务化拆分之后会引入一些新的问题,这些问题我在上节课提到过,归纳起来主要是两点:
如果想要解决这两方面问题,你需要了解微服务化所需要的中间件的基本原理和使用技巧,那么本节课,我会带你掌握解决第一个问题的核心组件:RPC框架。
来思考这样一个场景:你的垂直电商系统的QPS已经达到了每秒2万次,在做了服务化拆分之后,由于我们把业务逻辑都拆分到了单独部署的服务中,那么假设你在完成一次完整的请求时需要调用4~5次服务,计算下来,RPC服务需要承载大概每秒10万次的请求。而你该如何设计RPC框架承载如此大的请求量呢?我建议你:
接下来我从原理出发,让你对于RPC有一个理性的认识,这样你在设计RPC框架时就可以清晰地知道自己的设计目标是什么了。
说到RPC(Remote Procedure Call,远程过程调用),你不会陌生,它指的是通过网络调用另一台计算机上部署服务的技术。
而RPC框架就封装了网络调用的细节,让你像调用本地服务一样调用远程部署的服务。你也许觉得只有像Dubbo、Grpc、Thrift这些新兴的框架才算是RPC框架,其实严格来说,你很早之前就接触到与RPC相关的技术了。
比如,Java原生就有一套远程调用框架叫做RMI(Remote Method Invocation),它可以让Java程序通过网络调用另一台机器上的Java对象的方法。它是一种远程调用的方法,也是J2EE时代大名鼎鼎的EJB的实现基础。
时至今日,你仍然可以通过Spring的“RmiServiceExporter”将Spring管理的bean暴露成一个RMI的服务,从而继续使用RMI来实现跨进程的方法调用。之所以RMI没有像Dubbo、Grpc一样大火,是因为它存在着一些缺陷:
RMI使用专为Java远程对象定制的协议JRMP(Java Remote Messaging Protocol)进行通信,这限制了它的通信双方只能是Java语言的程序,无法实现跨语言通信;
RMI使用Java原生的对象序列化方式,生成的字节数组空间较大,效率很差。
另一个你可能听过的技术是Web Service,它也可以认为是RPC的一种实现方式。它的优势是使用HTTP+SOAP协议,保证了调用可以跨语言、跨平台。只要你支持HTTP协议,可以解析XML,那么就能够使用Web Service。在我看来,由于它使用XML封装数据,数据包大,性能还是比较差。
借上面几个例子我主要是想告诉你,RPC并不是互联网时代的产物,也不是服务化之后才衍生出来的技术,而是一种规范,只要是封装了网络调用的细节能够实现远程调用其他服务,就可以算作是一种RPC技术了。
那么你的垂直电商项目在使用RPC框架之后会产生什么变化呢?
在我看来,在性能上的变化是不可忽视的,我给你举个例子。 比方说,你的电商系统中商品详情页面需要商品数据、评论数据还有店铺数据,如果在一体化的架构中,你只需要从商品库、评论库和店铺库获取数据就可以了,不考虑缓存的情况下有三次网络请求。
但是如果独立出商品服务、评论服务和店铺服务之后,那么就需要分别调用这三个服务,而这三个服务又会分别调用各自的数据库,这就是六次网络请求。如果你服务拆分得更细粒度,那么多出的网络调用就会越多,请求的延迟就会更长,而这就是你为了提升系统的扩展性在性能上所付出的代价。
那么我们要如何优化RPC的性能,从而尽量减少网络调用对于性能的影响呢?在这里,你首先需要了解一次RPC的调用都经过了哪些步骤,因为这样你才可以针对这些步骤中可能存在的性能瓶颈点提出优化方案。步骤如下:
在一次RPC调用过程中,客户端首先会将调用的类名、方法名、参数名、参数值等信息,序列化成二进制流;
然后客户端将二进制流通过网络发送给服务端;
服务端接收到二进制流之后将它反序列化,得到需要调用的类名、方法名、参数名和参数值,再通过动态代理的方式调用对应的方法得到返回值;
服务端将返回值序列化,再通过网络发送给客户端;
客户端对结果反序列化之后,就可以得到调用的结果了。
过程图如下:
从这张图中你可以看到网络传输的过程,将请求序列化和反序列化的过程, 所以如果要提升RPC框架的性能,需要从网络传输和序列化两方面来优化。
在网络传输优化中,你首先要做的是选择一种高性能的I/O模型。所谓I/O模型,就是我们处理I/O的方式。而一般单次I/O请求会分为两个阶段,每个阶段对于I/O的处理方式是不同的。
首先,I/O会经历一个等待资源的阶段,比方说,等待网络传输数据可用,在这个过程中我们对I/O会有两种处理方式:
然后是使用资源的阶段,比如说从网络上接收到数据,并且拷贝到应用程序的缓冲区里面。在这个阶段我们也会有两种处理方式:
将这两个阶段的四种处理方式做一些排列组合,再做一些补充,就得到了我们常见的五种I/O模型:
你需要理解这五种I/O模型的区别和特点,不过在理解上你可能会有些难度,所以我来做个比喻方便你理解。
我们把I/O过程比喻成烧水倒水的过程,等待资源(就是烧水的过程),使用资源(就是倒水的过程):
如果你站在灶台边上一直等着(等待资源)水烧开,然后倒水(使用资源),那么就是同步阻塞I/O;
如果你偷点儿懒,在烧水的时候躺在沙发上看会儿电视(不再时时刻刻等待资源),但是还是要时不时地去看看水开了没有,一旦水开了,马上去倒水(使用资源),那么这就是同步非阻塞I/O;
如果你想要洗澡,需要同时烧好多壶水,那你就在看电视的间隙去看看哪壶水开了(等待多个资源),哪一壶开了就先倒哪一壶,这样就加快了烧水的速度,这就是同步多路I/O复用;
不过你发现自己总是跑厨房去看水开了没,太累了,于是你考虑给你的水壶加一个报警器(信号),只要水开了就马上去倒水,这就是信号驱动I/O;
最后一种就高级了,你发明了一个智能水壶,在水烧好后自动就可以把水倒好,这就是异步I/O。
这五种I/O模型中最被广泛使用的是多路I/O复用,Linux系统中的select、epoll等系统调用都是支持多路I/O复用模型的,Java中的高性能网络框架Netty默认也是使用这种模型。你可以选择它。
选择好了一种高性能的I/O模型,是不是就能实现数据在网络上的高效传输呢?其实并没有那么简单,网络性能的调优涉及很多方面,其中不可忽视的一项就是网络参数的调优,接下来我带你了解其中一个典型例子。当然,你可以结合网络基础知识以及成熟RPC框架(比如Dubbo)的源码来深入了解网络参数调优的方方面面。
在之前的项目中,我的团队曾经写过一个简单的RPC通信框架。在进行测试的时候发现远程调用一个空业务逻辑的方法时,平均响应时间居然可以到几十毫秒,这明显不符合我们的预期,在我们看来,运行一个空的方法应该在1毫秒之内可以返回。于是,我先在测试的时候使用tcpdump抓了包,发现一次请求的ACK包竟然要经过40ms才返回。在网上google了一下原因,发现和一个叫做tcp_nodelay的参数有关。这个参数是什么作用呢?
TCP协议的包头有20字节,IP协议的包头也有20字节,如果仅仅传输1字节的数据在网络上传输的就有20 + 20 + 1 = 41字节,其中真正有用的数据只有1个字节,这对效率和带宽是极大的浪费。所以在1984年的时候,John Nagle提出了以他的名字命名的Nagle`s算法,他希望:
如果是连续的小数据包,大小没有一个MSS(Maximum Segment
Size,最大分段大小),并且还没有收到之前发送的数据包的Ack信息,那么这些小数据包就会在发送端暂存起来,直到小数据包累积到一个MSS,或者收到一个Ack为止。
这原本是为了减少不必要的网络传输,但是如果接收端开启了DelayedACK(延迟ACK的发送,这样可以合并多个ACK,提升网络传输效率),那就会发生发送端发送第一个数据包后接收端没有返回ACK,这时发送端发送了第二个数据包,因为Nagle`s算法的存在,并且第一个发送包的ACK还没有返回,所以第二个包会暂存起来。而DelayedACK的超时时间默认是40ms,所以一旦到了40ms,接收端回给发送端ACK,那么发送端才会发送第二个包,这样就增加了延迟。
解决的方式非常简单:只要在Socket上开启tcp_nodelay就好了,这个参数关闭了Nagle`s算法,这样发送端就不需要等到上一个发送包的ACK返回直接发送新的数据包就好了。这对于强网络交互的场景来说非常的适用,基本上,如果你要自己实现一套网络框架,tcp_nodelay这个参数最好是要开启的。
在对网络数据传输完成调优之后,另外一个需要关注的点就是数据的序列化和反序列化。通常所说的序列化是将传输对象转换成二进制串的过程,而反序列化则是相反的动作,是将二进制串转换成对象的过程。
从上面的RPC调用过程中你可以看到,一次RPC调用需要经历两次数据序列化的过程和两次数据反序列化的过程,可见它们对于RPC的性能影响是很大的,那么我们在选择序列化方式的时候需要考虑哪些因素呢?
首先需要考虑的肯定是性能嘛,性能包括时间上的开销和空间上的开销,时间上的开销就是序列化和反序列化的速度,这是显而易见需要重点考虑的,而空间上的开销则是序列化后的二进制串的大小,过大的二进制串也会占据传输带宽影响传输效率。
除去性能之外,我们需要考虑的是它是否可以跨语言、跨平台,这一点也非常重要,因为一般的公司的技术体系都不是单一的,使用的语言也不是单一的,那么如果你的RPC框架中传输的数据只能被一种语言解析,这无疑限制了框架的使用。
另外,扩展性也是一个需要考虑的重点问题。你想想,如果对象增加了一个字段就会造成传输协议的不兼容,导致服务调用失败,这会是多么可怕的事情。
综合上面的几个考虑点,在我看来,我们的序列化备选方案主要有以下几种:
首先是大家熟知的JSON,它起源于JavaScript是一种最广泛使用的序列化协议,它的优势简单易用,同时在性能上相比XML有比较大的优势。
另外的Thrift和Protobuf都是需要引入IDL(Interface description language)的,也就是需要按照约定的语法写一个IDL文件,然后通过特定的编译器将它转换成各语言对应的代码,从而实现跨语言的特点。
Thrift是Facebook开源的高性能的序列化协议,也是一个轻量级的RPC框架;Protobuf是谷歌开源的序列化协议。它们的共同特点是无论在空间上还是时间上都有着很高的性能,缺点就是由于IDL存在带来一些使用上的不方便。
那么你要如何选择这几种序列化协议呢?这里我给你几点建议:
如果对于性能要求不高,在传输数据占用带宽不大的场景下可以使用JSON作为序列化协议;
如果对于性能要求比较高,那么使用Thrift或者Protobuf都可以。而Thrift提供了配套的RPC框架,所以想要一体化的解决方案,你可以优先考虑Thrift;
在一些存储的场景下,比如说你的缓存中存储的数据占用空间较大,那么你可以考虑使用Protobuf替换JSON作为存储数据的序列化方式。
为了优化RPC框架的性能,本节课我带你了解了网络I/O模型和序列化方式的选择,它们是实现高并发RPC框架的要素,总结起来有三个要点:
选择高性能的I/O模型,这里我推荐使用同步多路I/O复用模型;
调试网络参数,这里面有一些经验值的推荐。比如将tcp_nodelay设置为true,也有一些参数需要在运行中来调试,比如接受缓冲区和发送缓冲区的大小,客户端连接请求缓冲队列的大小(back log)等等;
序列化协议依据具体业务来选择。如果对性能要求不高可以选择JSON,否则可以从Thrift和Protobuf中选择其一。
在学习本节课的过程中,我建议你阅读一下成熟的RPC框架的源代码。比如阿里开源的Dubbo、微博的Motan等等,理解它们的实现原理和细节,这样你会更有信心维护好你的微服务系统;同时你也可以从优秀的代码中学习到代码设计的技巧,比如说Dubbo对于RPC的抽象,SPI扩展点的设计,这样可以有助你提升代码能力。
当然了,本节课我不仅仅想让你了解RPC框架实现的一些原理,更想让你了解在做网络编程时需要考虑哪些关键点,这样你在设计此类型的系统时就会有一些考虑的方向和思路了。
你在实际的工作中可能已经使用过一些RPC框架,那么结合你的实际经验,可以和我说说在RPC框架使用过程中,遇到了哪些问题吗?又是如何排查和解决的呢?欢迎在留言区与我分享你的经验。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。
评论