跳转到内容

TCP拥塞控制

本页使用了标题或全文手工转换
维基百科,自由的百科全书
(重定向自BBR

TCP拥塞控制传输控制协议(英語:Transmission Control Protocol,縮寫TCP)避免网络拥塞的算法,是互联网上主要的一个拥塞控制措施。它使用一套基于线增积减模式的多样化网络拥塞控制方法(包括慢启动和拥塞窗口等模式)来控制拥塞。[1][2][3][4][5]在互联网上应用中有相当多的具体实现算法。

运作方法

[编辑]

TCP使用多种拥塞控制策略来避免雪崩式拥塞。TCP会为每条连接维护一个“拥塞窗口”来限制可能在端对端间传输的未确认分组总数量。这类似TCP流量控制机制中使用的滑动窗口。TCP在一个连接初始化或超时后使用一种“慢启动”机制来增加拥塞窗口的大小。[6]它的起始值一般为最大分段大小(Maximum segment size,MSS)的两倍,虽然名为“慢启动”,初始值也相当低,但其增长极快:当每个分段得到确认时,拥塞窗口会增加一个MSS,使得在每次往返时间(round-trip time,RTT)内拥塞窗口能高效地双倍增长。

当拥塞窗口超过慢启动阈值(ssthresh)时,算法就会进入一个名为“拥塞避免”的阶段。[註 1]在拥塞避免阶段,只要未收到重复确认,拥塞窗口则在每次往返时间内线性增加一个MSS大小。[註 2]

拥塞窗口

[编辑]

在TCP中,拥塞窗口(congestion window)是任何时刻内确定能被发送出去的字节数的控制因素之一,是阻止发送方至接收方之间的链路变得拥塞的手段。他是由发送方维护,通过估计链路的拥塞程度计算出来的,与由接收方维护的接收窗口大小并不冲突。

当一条连接建立后,每个主机独立维护一个拥塞窗口并设置值为连接所能承受的MSS的最小倍数,之后的变化依靠线增积减机制来控制,这意味如果所有分段到达接收方和确认包准时地回到发送方,拥塞窗口会增加一定数量。该窗口会保持指数增大,直到发生超时或者超过一个称为“慢启动阈值(ssthresh)”的限值。如果发送方到达这个阈值时,每收到一个新确认包,拥塞窗口只按照线性速度增加自身值的倒数。

当发生超时的时候,慢启动阈值降为超时前拥塞窗口的一半大小、拥塞窗口会降为1个MSS,并且重新回到慢启动阶段。

系统管理员可以设置窗口最大限值,或者调整拥塞窗口的增加量,来对TCP调优英语TCP tuning

在流量控制中,接收方通过TCP的“窗口”值(Window Size)来告知发送方,由发送方通过对拥塞窗口和接收窗口的大小比较,来确定任何时刻内需要传输的数据量。

慢启动

[编辑]

慢启动(Slow-start)是用于结合其他阶段算法,来避免发送过多数据到网络中而导致网络拥塞,算法在RFC 5681中定义。

慢启动初始启动时设置拥塞窗口值(cwnd)为1、2、4或10个MSS。[7][8]:1拥塞窗口在每接收到一个确认包时增加,每个RTT内成倍增加,当然实际上并不完全是指数增长,因为接收方会延迟发送确认,通常是每接收两个分段则发送一次确认包。[9]发送速率随着慢启动的进行而增加,直到遇到出现丢失、达到慢启动阈值(ssthresh)、或者接收方的接收窗口进行限制。如果发生丢失,则TCP推断网络出现了拥塞,会试图采取措施来降低网络负载。这些是靠具体使用的TCP拥塞算法来进行测量判断。当达到慢启动阈值(ssthresh)时,慢启动算法就会转换为线性增长的阶段,算法控制每个RTT内拥塞窗口只增加1个分段量。虽然称为“慢启动”,但实际上比拥塞控制阶段的窗口增加更为激进。[10]

对于处理报文丢失这个事件上,不同拥塞控制算法表现有所不同:

TCP Tahoe
对于TCP Tahoe算法,当发生丢失时,会进入“快速重传”机制,慢启动阈值设为之前拥塞窗口值的一半,拥塞窗口值降为初始值,重新进入慢启动阶段。当拥塞窗口值达到慢启动阈值时,每RTT内拥塞窗口增加值则为“MSS除以CWND”的值,所以拥塞窗口按线性速度增加。
TCP Reno
TCP Reno算法实现了一个名为“快速恢复”的机制,慢启动阈值设为之前拥塞窗口值的一半,和作为新的拥塞窗口值,并跳过慢启动阶段,直接进入拥塞控制阶段。

慢启动假设分段的未确认是由于网络拥塞造成的,虽然大部分网络的确如此,但也有其他原因,例如一些链路质量差的网络,会导致分段包丢失。在一些网络环境,例如无线网络,慢启动效率并不好。

慢启动对于一些短暂的连接性能并不好,一些较旧的网页浏览器会建立大量连续的短暂链接,通过快速开启和关闭链接来请求获得文件,这使得大多数链接处于慢启动模式,导致网页响应时间差。所以现在新的网页浏览器,会通过向特殊的服务器,开启一条链接来请求获得全部的文件,而避免频繁新建大量短暂链接。不过这样对一些非请求网站所提供的服务,例如广告跟踪脚本、社交分享功能脚本、网络分析脚本等,并不适用。[11]

和式增加,积式减少

[编辑]

和性增长/乘性降低(additive-increase/multiplicative-decrease,AIMD,这里简称“线增积减”)是一种反馈控制算法,其包含了对拥塞窗口线性增加,和当发生拥塞时对窗口积式减少。多个使用AIMD控制的TCP流最终会收敛到对线路的等量竞争使用。[12]

快速重传

[编辑]

快速重传(Fast retransmit)是对TCP发送方降低等待重发丢失分段用时的一种改进。TCP发送方每发送一个分段都会启动一个超时计时器,如果没能在特定时间内接收到相应分段的确认,发送方就假设这个分段在网络上丢失了,需要重发。这也是 TCP 用来估计 RTT 的测量方法。

重复确认(duplicate cumulative acknowledgements,DupAcks)就是这个阶段的基础,其基于以下过程:如果接收方接收到一个数据分段,就会将该分段的序列号加上数据字节长的值,作为分段确认的确认号,发送回发送方,表示期望发送方发送下一个序列号的分段。但是如果接收方提前收到更下一个序列号的分段——或者说接收到无序到达的分段,即之前期望确认号对应的分段出现接收丢失——接收方需要立即使用之前的确认号发送分段确认。此时如果发送方收到接收方相同确认号的分段确认超过1次,并且该对应序列号的分段超时计时器仍没超时的话,则这就是出现重复确认,需要进入快速重传。

快速重传就是基于以下机制:如果假设重复阈值为3,当发送方收到4次相同确认号的分段确认(第1次收到确认期望序列号,加3次重复的期望序列号确认)时,则可以认为继续发送更高序列号的分段将会被接受方丢弃,而且会无法有序送达。发送方应该忽略超时计时器的等待重发,立即重发重复分段确认中确认号对应序列号的分段。

具体实现算法

[编辑]

“TCP+算法名称”这一TCP算法命名方式最早出在凯文·福尔(Kevin Fall)和莎莉·弗洛伊德(Sally Floyd)在1996年发布的一篇论文中。[13]

TCP Tahoe 和 Reno

[编辑]

这两个算法是根据其第一次加入到4.3BSD的时间回溯命名的,两个名字对应自其第一次出现时BSD的代号,而代号分别取自太浩湖(Lake Tahoe)和其附近的城市雷諾市。“Tahoe”算法实现在4.3BSD-Tahoe中第一次加入,之后在4.3BSD网络发布第一版实现了脱AT&T授权版本,使其能更容易被广泛再发布与实现。改进版“Reno”在4.3BSD-Reno中实现,并之后通过“4.3BSD网络发布第二版”和4.4BSD-Lite发布。

两者算法大致一致,对于丢包事件判断都是以重传超时(retransmission timeout,RTO)和重复确认为条件,但是对于重复确认的处理,两者有所不同:

  • Tahoe:如果收到三次重复确认——即第四次收到相同确认号的分段确认,并且分段对应包无负载分段和无改变接收窗口——的话,Tahoe算法则进入快速重传,将慢启动阈值改为当前拥塞窗口的一半,将拥塞窗口降为1个MSS,并重新进入慢启动阶段。[15]
  • Reno:如果收到三次重复确认,Reno算法则进入快速重传,只将拥塞窗口减半来跳过慢启动阶段,将慢启动阈值设为当前新的拥塞窗口值,进入一个称为“快速恢复”的新设计阶段。

对于RTO,两个算法都是将拥塞窗口降为1个MSS,然后进入慢启动阶段。[15]

快速恢复

[编辑]

快速恢复(Fast recovery)是Reno算法新引入的一个阶段,在将丢失的分段重传后,启动一个超时定时器,并等待该丢失分段包的分段确认后,再进入拥塞控制阶段。如果仍然超时,则回到慢启动阶段。

TCP Vegas

[编辑]

至1990年代中期,TCP量度延迟和RTT都是以传输缓存中最后一个被传送的分段包为准。亚利桑那大学的研究人员拉里·彼得森和劳伦斯·布拉科夫英语Lawrence Brakmo提出了新的TCP拥塞算法“TCP Vegas”,[16][17]其实通过度量传输缓存中每个传送分段包来代替只量度一个分段包,根据每次度量的平均值来增加拥塞窗口。[18]该算法取名自内华达州最大的城市拉斯维加斯。不过由于一些资源公平性原因,该算法并没有在彼得森的实验室之外广泛部署。一些研究认为该算法和其他拥塞算法混合使用,可能会导致性能竞争不及其他算法。[19][20][21][22]在各种TCP拥塞算法的比较研究中,Vegas被认为是最平滑的控制算法,其次为CUBIC。[23]

DD-WRT在v24 SP2开始将该算法作为其默认的TCP拥塞控制算法。[24]

TCP New Reno

[编辑]

TCP New Reno是对TCP Reno中快速恢复阶段的重传进行改善的一种改进算法,其定义于RFC 6582,覆盖了原有在RFC 3782RFC 2582的旧定义。

在Reno的快速恢复中,一旦出现3次重复确认,TCP发送方会重发重复确认对应序列号的分段并设置定时器等待该重发分段包的分段确认包,当该分段确认包收到后,就立即退出快速恢复阶段,进入拥塞控制阶段,但如果某个导致重复确认的分段包到遇到重复确认期间所发送的分段包存在多个丢失的话,则这些丢失只能等待超时重发,并且导致拥塞窗口多次进入拥塞控制阶段而多次下降。而New Reno的快速恢复中,一旦出现3次重复确认,TCP发送方先记下3次重复确认时已发送但未确认的分段的最大序列号,然后重发重复确认对应序列号的分段包。如果只有该重复确认的分段丢失,则接收方接收该重发分段包后,会立即返回最大序列号的分段确认包,从而完成重发;但如果重复确认期间的发送包有多个丢失,接收方在接收该重发分段后,会返回非最大序列号的分段确认包,从而发送方继续保持重发这些丢失的分段,直到最大序列号的分段确认包的返回,才退出快速恢复阶段。[18]

New Reno在低错误率时运行效率和“选择确认”(Selective ACKnowledgement,SACK)相当,在高错误率仍优于Reno。[25]

TCP Hybla

[编辑]

TCP Hybla旨在消除由于高延迟地面线路或者卫星无线链路下导致的RTT过长而对TCP链接的影响。它通过对拥塞窗口动态分析来修改,来减少对RTT的性能依赖。[26]

TCP BIC 和 CUBIC

[编辑]

TCP BIC(Binary Increase Congestion control)旨在优化高速高延迟网络(即根据RFC 1072所定义的“长肥网络”(long fat network,LFN)[27])的拥塞控制,其拥塞窗口算法使用二分搜索算法尝试找到能长时间保持拥塞窗口最大值的值。[28]Linux内核在2.6.8至2.6.18使用该算法作为默认TCP拥塞算法。[29]

CUBIC则是比BIC更温和和系统化的分支版本,其使用三次函数代替二分算法作为其拥塞窗口算法,并且使用函数拐点作为拥塞窗口的设置值。[28]Linux内核在2.6.19后使用该算法作为默认TCP拥塞算法。[30]

TCP Westwood和Westwood+

[编辑]

TCP Westwood改良自New Reno,不同于以往其他拥塞控制算法使用丢失来测量,其通过对确认包测量来确定一个“合适的发送速度”,并以此调整拥塞窗口和慢启动阈值。其改良了慢启动阶段算法为“敏捷探测(Agile Probing)”,和设计了一种持续探测拥塞窗口的方法来控制进入“敏捷探测”,使链接尽可能地使用更多的带宽。Westwood+使用更长的带宽估计间隔和优化的滤波器来修正Westwood对ACK压缩场景对带宽估计过高的问题。通过以上改良,TCP Westwood系列算法在有线网络和无线网络的拥塞控制上取得平衡,尤其研究中针对于无线通信网络上。[31][32]

Compound TCP

[编辑]

复合TCP(Compound TCP)是微软自己实现的TCP拥塞控制算法,通过同时维护两个拥塞窗口,来实现在长肥网络有较好的性能而又不损失公平性。该算法在Windows VistaWindows Server 2008开始广泛部署,[33]并通过补丁的方式回溯支持到Windows XPWindows Server 2003[34]在Linux上也有一个旧版本的移植实现。[35]

TCP PRR

[编辑]

TCP PRR(TCP Proportional Rate Reduction )[36]是旨在恢复期间提高发送数据的准确性。该算法确保恢复后的拥塞窗口大小尽可能接近慢启动阈值。在Google进行的测试中,能将平均延迟降低3~10%,恢复的超时减少5%。[37]PRR算法之后作为Linux内核3.2版本的默认拥塞算法。[38]

TCP BBR

[编辑]

TCP BBR(Bottleneck Bandwidth and Round-trip propagation time)是由Google设计,于2016年发布的拥塞算法。以往大部分拥塞算法是基于丢包来作为降低传输速率的信号,而BBR则基于模型主动探测。该算法使用网络最近出站数据分组当时的最大带宽和往返时间来建立网络的显式模型。数据包传输的每个累积或选择性确认用于生成记录在数据包传输过程和确认返回期间的时间内所传送数据量的采样率。[39]该算法认为随着网络接口控制器逐渐进入千兆速度时,与缓冲膨胀相关的延迟相比丢包更应该被认为是识别拥塞的主要决定因素,所以基于延迟模型的拥塞控制算法(如BBR)会有更高的吞吐量和更低的延迟,可以用BBR来替代其他流行的拥塞算法,例如CUBIC。Google在YouTube上应用该算法,将全球平均的YouTube网络吞吐量提高了4%,在一些国家超过了14%。[40]

BBR之后移植入Linux内核4.9版本,[41][42]并且对于QUIC可用。

BBR效率很高,速度也很快,但是它与非BBR的流的公平性有争议。虽然谷歌的展示显示 BBR 与 CUBIC 共存良好,但像杰夫·休斯顿和霍克、布利斯和齐特巴特等研究者发现它对其他流不公平,并且不可扩展。[43]霍克等人还发现,在Linux 4.9的BBR实现中“存在一些严重的固有问题,如排队延迟增加、不公平和大量数据包丢失”。[44]

索海尔·阿巴斯洛等人(C2TCP的作者)指出,BBR在动态环境中表现不佳,比如蜂窝网络。[45][46]他们还表明BBR存在不公平问题。例如,当一个CUBIC流(在Linux、Android和MacOS中是默认的TCP实现)与网络中的BBR流共存时,BBR流可以支配 CUBIC 流并从中获得整个链路带宽[45]

注脚

[编辑]
  1. ^ 在一些具体实现——例如Linux,慢启动阈值初始时被设置很大,所以第一次慢启动阶段通常在一次发送丢失后结束。然而,慢启动阈值在每次慢启动结束后更新,并影响之后由超时所触发的慢启动。
  2. ^ 当出现丢包时,收到重复确认的可能性就会增加。但也有可能是因为TCP报文不守序地到达接收方,导致接收方重复确认,而不是丢包。

参考文献

[编辑]
  1. ^ Van Jacobson, Michael J. Karels. Congestion Avoidance and Control页面存档备份,存于互联网档案馆) (1988). Proceedings of the Sigcomm '88 Symposium, vol.18(4): pp.314–329. Stanford, CA. August 1988. This paper originated many of the congestion avoidance algorithms used in TCP/IP.
  2. ^ RFC 2001 – TCP Slow Start, Congestion Avoidance, Fast Retransmit, and Fast Recovery Algorithms
  3. ^ RFC 5681 – TCP Congestion Control
  4. ^ RFC 3390 – TCP Increasing TCP's Initial Window
  5. ^ TCP Congestion Avoidance Explained via a Sequence Diagram (PDF). [2018-04-19]. (原始内容 (PDF)存档于2010-11-22). 
  6. ^ Jacobson, Van; Karels, Michael. Congestion Avoidance and Control (PDF). ACM SIGCOMM Computer Communication Review. 1988, 25 (1): 157–187 [2018-04-19]. doi:10.1145/205447.205462. (原始内容存档 (PDF)于2013-05-12). 
  7. ^ Corbet, Jonathan. Increasing the TCP initial congestion window. LWN. [2012-10-10]. (原始内容存档于2012-10-17). 
  8. ^ Increasing TCP's Initial Window. RFC 3390. 
  9. ^ TCP Slow Start, Congestion Avoidance, Fast Retransmit, and Fast Recovery Algorithms. January 1997 [2018-04-19]. (原始内容存档于2016-03-10). 
  10. ^ Jacobson, Van; Karels, MJ. Congestion avoidance and control (PDF). ACM SIGCOMM Computer Communication Review. 1988, 18 (4): 314–329 [2018-04-19]. doi:10.1145/52325.52356. (原始内容 (PDF)存档于2004-06-22). 
  11. ^ What's Making Your Site Go Slow? Could Be The Like Button. allfacebook.com. 2010-11-10 [2018-03-26]. (原始内容存档于2014-08-18) (美国英语). 
  12. ^ Chiu, Dah-Ming; Raj Jain. Analysis of increase and decrease algorithms for congestion avoidance in computer networks. Computer Networks and ISDN systems. 1989, 17: 1–14. 
  13. ^ Fall, Kevin; Sally Floyd. Simulation-based Comparisons of Tahoe, Reno and SACK TCP (PostScript). Computer Communications Review. July 1996 [2018-04-19]. (原始内容存档于2020-01-17). 
  14. ^ Kurose, James; Ross, Keith. Computer Networking – A Top-Down Approach 4th. Addison Wesley. 2008. ISBN 978-0-13-607967-5. 
  15. ^ 15.0 15.1 Kurose & Ross 2008[14], p. 284.
  16. ^ Understanding TCP Vegas: Theory and Practice* | Computer Science Department at Princeton University. www.cs.princeton.edu. [2018-02-21]. (原始内容存档于2018-03-16) (英语). 
  17. ^ Kim, Cheeha. Information Networking: Convergence in Broadband and Mobile Networking. International Conference, ICOIN 2005, Jeju Island, Korea, January 31 - February 2, 2005, Proceedings. Springer Science & Business Media. 2005-01-24 [2018-02-21]. (原始内容存档于2018-04-19) (英语). 
  18. ^ 18.0 18.1 A Comparative Analysis of TCP Tahoe, Reno, New-Reno, SACK and Vegas (PDF). [2018-04-19]. (原始内容存档 (PDF)于2017-08-29). 
  19. ^ Issues in TCP Vegas (PDF). [2018-04-19]. (原始内容存档 (PDF)于2008-05-12). 
  20. ^ Brakmo, Lawrence S. TCP Vegas: New techniques for congestion detection and avoidance. 1994 [2018-02-21]. (原始内容存档于2016-03-04). 
  21. ^ Srikant, Rayadurgam. The Mathematics of Internet Congestion Control. Springer Science & Business Media. 2004 [2018-02-21]. (原始内容存档于2018-04-19) (英语). 
  22. ^ Venkatesh, T. An Analytical Approach to Optical Burst Switched Networks. Springer Science & Business Media. 2010-03-16 [2018-02-21]. (原始内容存档于2018-04-19) (英语). 
  23. ^ Performance Analysis of TCP Congestion Control Algorithms (PDF). [2012-03-26]. (原始内容存档 (PDF)于2014-03-10). 
  24. ^ DD-WRT changelog. [2012-01-02]. (原始内容存档于2012-01-24). 
  25. ^ Das, Vinu; Thankachan, Nessy. Computational Intelligence and Information Technology: First International Conference, CIIT 2011, Pune, India, November 7-8, 2011. Proceedings. Computational Intelligence and Information Technology. Springer Science & Business Media. 2013-01-02 [2018-04-19]. ISBN 9783642257339. (原始内容存档于2018-04-19) (英语). 
  26. ^ Caini, Carlo; Firrincieli, Rosario. TCP Hybla: a TCP enhancement for heterogeneous networks. International Journal of Satellite Communications and Networking. 2004-09-01, 22 (5): 547–566 [2018-04-19]. ISSN 1542-0981. doi:10.1002/sat.799. (原始内容存档于2018-01-16) (英语). 
  27. ^ V., Jacobson,. TCP extensions for long-delay paths. tools.ietf.org. [2017-09-02]. (原始内容存档于2017-07-07) (英语). 
  28. ^ 28.0 28.1 BIC and CUBIC | Networking Research Lab. 2012-12-12 [2017-09-02]. (原始内容存档于2010-10-06). 
  29. ^ ChangeLog-2.6.8. kernel.org. [2017-09-02]. (原始内容存档于2017-09-08). 
  30. ^ Proceedings of the Linux Symposium (PDF). kernel.org. 2009-07-17 [2018-04-19]. (原始内容存档 (PDF)于2013-07-31). 
  31. ^ TCP Westwood网络拥塞协议分析与控制研究--《安徽大学》2015年硕士论文. cdmd.cnki.com.cn. [2018-02-22]. (原始内容存档于2018-04-19). 
  32. ^ 对无线网络中Westwood拥塞控制算法的研究与改进--《华中师范大学》2016年硕士论文. cdmd.cnki.com.cn. [2018-02-22]. (原始内容存档于2018-04-19). 
  33. ^ The Cable Guy - November 2005. technet.microsoft.com. [2017-09-04]. (原始内容存档于2013-06-21) (英语). 
  34. ^ A hotfix that adds Compound TCP (CTCP) support to computers that are running Windows Server 2003 or Windows XP is available. [2018-04-19]. (原始内容存档于2008-05-06). 
  35. ^ Compound TCP in Linux. 2008-08-02 [2017-09-04]. (原始内容存档于2008-08-02). 
  36. ^ Proportional Rate Reduction for TCP. [2014-06-06]. (原始内容存档于2014-07-14). 
  37. ^ Corbet, Jonathan. LPC: Making the net go faster. [2014-06-06]. (原始内容存档于2014-07-14). 
  38. ^ Linux 3.2 - Linux Kernel Newbies. [2014-06-06]. (原始内容存档于2014-07-03). 
  39. ^ Delivery Rate Estimation. [2017-08-25]. (原始内容存档于2018-04-19). 
  40. ^ TCP BBR congestion control comes to GCP – your Internet just got faster. [2017-08-25]. (原始内容存档于2017-08-25). 
  41. ^ Increase your Linux server Internet speed with TCP BBR congestion control. nixCraft. [2017-11-25]. (原始内容存档于2017-12-09) (美国英语). 
  42. ^ Linux Kernel 4.9 Is Here, and It's the Largest Release Ever. Linux.com | The source for Linux information. [2017-11-25]. (原始内容存档于2018-04-19) (英语). 
  43. ^ TCP and BBR (PDF). [27 May 2018]. (原始内容存档 (PDF)于2019-06-25). 
  44. ^ Experimental Evaluation of BBR Congestion Control (PDF). [27 May 2018]. (原始内容存档 (PDF)于2018-05-27). 
  45. ^ 45.0 45.1 Abbasloo, S.; Xu, Y.; Chao, H. J. C2TCP: A Flexible Cellular TCP to Meet Stringent Delay Requirements. IEEE Journal on Selected Areas in Communications. 2019, 37 (4): 918–932. ISSN 0733-8716. arXiv:1810.13241可免费查阅. doi:10.1109/JSAC.2019.2898758. 
  46. ^ Abbasloo, S.; Li, T.; Xu, Y.; Chao, H. J. Cellular Controlled Delay TCP (C2TCP). 2018 IFIP Networking Conference and Workshops. May 2018: 118–126. Bibcode:2018arXiv180702689A. ISBN 978-3-903176-08-9. arXiv:1807.02689可免费查阅. doi:10.23919/IFIPNetworking.2018.8696844. 

外部链接

[编辑]