TCP網絡擁塞控制


擁塞控制過程


數據吞吐量

TCP窗口大小,窗口流量控制,慢啟動對TCP的成塊數據傳輸綜合作用,可能對TCP的數據傳輸有意想不到的影響。

RTT(Round-Trip Time) :往返時間。是指一個報文段從發出去到收到此報文段的ACK所經歷的時間。通常一個報文段的RTT與傳播時延和發送時延兩個因素相關。

在發送的過程中有可能發生這樣的情況,即TCP兩端的傳輸“管道”被填滿,即整個管道上都有數據在跑,此時不管擁塞窗口和通告窗口是多少,管道上都不能在容納更多的數據了。此時每當接收方從網絡上移去一個報文段,發送方就發送一個,但是管道上的ACK總是固定的,這種情況就是連接的理想穩定狀態。

一般情況下帶寬*時延就是一條線路的容量,因此吧RTT減小可以增加一條線路的容量,注意RTT加大的意思時傳輸時間減小!

當 數據由一個大的管道向一個小的管道傳輸時,就有可能發生擁塞,例如,當若干輸入流到達一個路由器,而此路由器的輸出帶寬小於這些輸入流的帶寬總和時,就會發生擁塞。這種情況普遍見於局域網與廣域網的接口處。如果發送方處於局域網,而且不使用慢啟動,使用局域網的帶寬盡快的發送報文,那么返回的ACK之間的間隔與最慢的廣域網鏈路一致。而且,由於路由器轉發包速度慢,所以路由器就有可能主動丟失分組包。

TCP的擁塞控制主要原理依賴於一個擁塞窗口(cwnd)來控制,TCP還有一個對端通告的接收窗口(rwnd)用於流量控制。窗口值的大小就代表能夠發送出去的但還沒有收到ACK的最大數據報文段,顯然窗口越大那么數據發送的速度也就越快,但是也有越可能使得網絡出現擁塞,如果窗口值為1,那么就簡化為一個停等協議,每發送一個數據,都要等到對方的確認才能發送第二個數據包,顯然數據傳輸效率低下。TCP的擁塞控制算法就是要在這兩者之間權衡,選取最好的cwnd值,從而使得網絡吞吐量最大化且不產生擁塞。

由於需要考慮擁塞控制和流量控制兩個方面的內容,因此TCP的真正的發送窗口=min(rwnd, cwnd)。但是rwnd是由對端確定的,網絡環境對其沒有影響,所以在考慮擁塞的時候我們一般不考慮rwnd的值,我們暫時只討論如何確定cwnd值的大小。關於cwnd的單位,在TCP中是以字節來做單位的,我們假設TCP每次傳輸都是按照MSS(Maxitum Segment Size)大小來發送數據的,因此你可以認為cwnd按照數據包個數來做單位也可以理解,所以有時我們說cwnd增加1也就是相當於字節數增加1個MSS大小。
慢啟動

慢啟動定義

慢啟動,是傳輸控制協議使用的一種阻塞控制機制。慢啟動也叫做指數增長期。慢啟動是指每次TCP接收窗口收到確認時都會增長。增加的大小就是已確認段的數目。這種情況一直保持到要么沒有收到一些段,要么窗口大小到達預先定義的閾值。如果發生丟失事件,TCP就認為這是網絡阻塞,就會采取措施減輕網絡擁擠。一旦發生丟失事件或者到達閾值,TCP就會進入線性增長階段。這時,每經過一個RTT窗口增長一個段。

慢啟動解析

發送方一開始便向網絡發送多個報文段,直至達到接收方通告的窗口大小為止。當發送方和接收方處於同一個局域網時,這種方式是可以的。但是如果在發送方和接收方之間存在多個路由器和速率較慢的鏈路時,就有可能出現一些問題。一些中間路由器必須緩存分組,並有可能耗盡存儲器的空間。現在,TCP需要支持一種被稱為“慢啟動(slow start)”的算法。該算法通過觀察到新分組進入網絡的速率應該與另一端返回確認的速率相同而進行工作。

慢啟動為發送方的TCP增加了另一個窗口:擁塞窗口(congestion window),記為cwnd。新建立的連接不能夠一開始就大量發送數據包,而只能根據網絡情況逐步增加每次發送的數據量,以避免上述現象的發生。具體來說,當新建連接時,cwnd初始化為1個最大報文段(MSS)大小,發送端開始按照擁塞窗口大小發送數據,每當有一個報文段被確認,cwnd就增加1個MSS大小。這樣cwnd的值就隨着網絡往返時間(Round Trip Time,RTT)呈指數級增長,事實上,慢啟動的速度一點也不慢,只是它的起點比較低一點而已。我們可以簡單計算下:
   開始           --->     cwnd = 1

經過1個RTT后 ---> cwnd = 2*1 = 2

經過2個RTT后 ---> cwnd = 2*2= 4

經過3個RTT后 ---> cwnd = 4*2 = 8

如果帶寬為W,那么經過RTT*log2W時間就可以占滿帶寬。

慢速網絡例子

下圖表示的是將從主機sun發送到主機vangogh.cs.berkeley.edu的數據。這些數據將通過一個慢的SLIP鏈路,該鏈路是TCP連接上的瓶頸(我們已經在時間系列上去掉了連接建立的過程)。

Image

我們觀察到發送方發送一個長度為5 1 2字節的報文段,然后等待ACK。該ACK在716 ms后收到。這個時間是一個往返時間的指示。於是擁塞窗口增加了 2個報文段,且又發送了兩個報文段。當收到報文段5的ACK后,擁塞窗口增加為3。此時盡管可發送多達3個報文段,可是在下一個ACK收到之前,只發送了2個報文段。

擁塞避免
從慢啟動可以看到,cwnd可以很快的增長上來,從而最大程度利用網絡帶寬資源,但是cwnd不能一直這樣無限增長下去,一定需要某個限制。TCP使用了一個叫慢啟動門限(ssthresh)的變量,當cwnd超過該值后,慢啟動過程結束,進入擁塞避免階段。對於大多數TCP實現來說,ssthresh的值是65536(同樣以字節計算)。擁塞避免的主要思想是加法增大,也就是cwnd的值不再指數級往上升,開始加法增加。此時當窗口中所有的報文段都被確認時,cwnd的大小加1,cwnd的值就隨着RTT開始線性增加,這樣就可以避免增長過快導致網絡擁塞,慢慢的增加調整到網絡的最佳值。

上面討論的兩個機制都是沒有檢測到擁塞的情況下的行為,那么當發現擁塞了cwnd又該怎樣去調整呢?

首先來看TCP是如何確定網絡進入了擁塞狀態的,TCP認為網絡擁塞的主要依據是它重傳了一個報文段。上面提到過,TCP對每一個報文段都有一個定時器,稱為重傳定時器(RTO),當RTO超時且還沒有得到數據確認,那么TCP就會對該報文段進行重傳,當發生超時時,那么出現擁塞的可能性就很大,某個報文段可能在網絡中某處丟失,並且后續的報文段也沒有了消息,在這種情況下,TCP反應比較“強烈”:

1.把ssthresh降低為cwnd值的一半

2.把cwnd重新設置為1

3.重新進入慢啟動過程。

從整體上來講,TCP擁塞控制窗口變化的原則是AIMD原則,即加法增大、乘法減小。可以看出TCP的該原則可以較好地保證流之間的公平性,因為一旦出現丟包,那么立即減半退避,可以給其他新建的流留有足夠的空間,從而保證整個的公平性。

我們認識到在收到一個失序的報文段時, TCP立即需要產生一個ACK(一個重復的ACK)。這個重復的ACK不應該被遲延。該重復的ACK的目的在於讓對方知道收到一個失序的報文段,並告訴對方自己希望收到的序號。
由於我們不知道一個重復的ACK是由一個丟失的報文段引起的,還是由於僅僅出現了幾個報文段的重新排序,因此我們等待少量重復的ACK到來。假如這只是一些報文段的重新排序,則在重新排序的報文段被處理並產生一個新的ACK之前,只可能產生1 ~ 2個重復的ACK。如果一連串收到3個或3個以上的重復ACK,就非常可能是一個報文段丟失了。

其實TCP還有一種情況會進行重傳:那就是收到3個相同的ACK。TCP在收到亂序到達包時就會立即發送ACK,TCP利用3個相同的ACK來判定數據包的丟失,此時進行快速重傳,快速重傳做的事情有:

1.把ssthresh設置為cwnd的一半

2.把cwnd再設置為ssthresh的值(具體實現有些為ssthresh+3)

3.重新進入擁塞避免階段。

后來的“快速恢復”算法是在上述的“快速重傳”算法后添加的,當收到3個重復ACK時,TCP最后進入的不是擁塞避免階段,而是快速恢復階段。快速重傳和快速恢復算法一般同時使用。快速恢復的思想是“數據包守恆”原則,即同一個時刻在網絡中的數據包數量是恆定的,只有當“老”數據包離開了網絡后,才能向網絡中發送一個“新”的數據包,如果發送方收到一個重復的ACK,那么根據TCP的ACK機制就表明有一個數據包離開了網絡,於是cwnd加1。如果能夠嚴格按照該原則那么網絡中很少會發生擁塞,事實上擁塞控制的目的也就在修正違反該原則的地方。

具體來說快速恢復的主要步驟是:

1.當收到3個重復ACK時,把ssthresh設置為cwnd的一半,把cwnd設置為ssthresh的值加3,然后重傳丟失的報文段,加3的原因是因為收到3個重復的ACK,表明有3個“老”的數據包離開了網絡。

2.再收到重復的ACK時,擁塞窗口增加1。(為什么發生擁塞時,還增加cwnd?答案:在檢測到丟包時,窗口為cwnd。這時候網絡中最多有cwnd個包(in_flight < cwnd )。每當收到一個重復的ACK,則說明有數據包離開網絡,達到接收端了。那么,此時網絡中還可以再容納1個包。由於發送端滑動窗口不能移動了,所以如果想保持in_flight,可以使cwnd++。這樣一來,可以提高吞吐量。而實際上,在fast recovery期間發送的新數據包比起發生丟包的cwnd來說,已經是大大減少了。)

3.當收到新的數據包的ACK時,把cwnd設置為第一步中的ssthresh的值。原因是因為該ACK確認了新的數據,說明從重復ACK時的數據都已收到,該恢復過程已經結束,可以回到恢復之前的狀態了,也即再次進入擁塞避免狀態。

快速重傳算法首次出現在4.3BSD的Tahoe版本,快速恢復首次出現在4.3BSD的Reno版本,也稱之為Reno版的TCP擁塞控制算法。

可以看出Reno的快速重傳算法是針對一個包的重傳情況的,然而在實際中,一個重傳超時可能導致許多的數據包的重傳,因此當多個數據包從一個數據窗口中丟失時並且觸發快速重傳和快速恢復算法時,問題就產生了。因此NewReno出現了,它在Reno快速恢復的基礎上稍加了修改,可以恢復一個窗口內多個包丟失的情況。具體來講就是:Reno在收到一個新的數據的ACK時就退出了快速恢復狀態了,而NewReno需要收到該窗口內所有數據包的確認后才會退出快速恢復狀態,從而更一步提高吞吐量。

SACK就是改變TCP的確認機制,最初的TCP只確認當前已連續收到的數據,SACK則把亂序等信息會全部告訴對方,從而減少數據發送方重傳的盲目性。比如說序號1,2,3,5,7的數據收到了,那么普通的ACK只會確認序列號4,而SACK會把當前的5,7已經收到的信息在SACK選項里面告知對端,從而提高性能,當使用SACK的時候,NewReno算法可以不使用,因為SACK本身攜帶的信息就可以使得發送方有足夠的信息來知道需要重傳哪些包,而不需要重傳哪些包。

性能分析

Tahoe沒有快速恢復機制,在丟包后,它不僅重發了一些已經成功傳輸的數據,而且在恢復期間吞吐量也不高。利用SACK option攜帶的信息,我們能夠提前知道哪些數據包丟失了。NewReno每個RTT內只能恢復一個丟失的數據包,所以如果丟失了N個數據包,那么Fast Recovery就要持續N*RTT的時間,當N比較大時,這是一段相當長的時間。而SACK則沒有這個限制,依靠SACK option的信息,它能夠同時恢復多個數據包,更加快速和平穩的恢復。
當發生同一窗口多個丟包時,SACK和NewReno最終都能夠較為快速和平穩的恢復過來。而Reno則經常出現超時,然后再用慢啟動來恢復,這個時候Reno的表現就如同Tahoe,會造成已接受數據的重復傳送。Reno恢復期間會出現吞吐量低、恢復時間長、不必要重發數據、恢復結束后閾值過低等一些問題,嚴重的影響性能。

參考文章:

http://blog.csdn.net/zhangskd/article/details/7174682

http://zh.wikipedia.org/wiki/%E6%8B%A5%E5%A1%9E%E6%8E%A7%E5%88%B6

http://gotowqj.iteye.com/blog/1962374


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM