JAVA之工作線程數究竟要設置多少


一、需求緣起

Web-Server通常有個配置,最大工作線程數,后端服務一般也有個配置,工作線程池的線程數量,這個線程數的配置不同的業務架構師有不同的經驗值,有些業務設置為CPU核數的2倍,有些業務設置為CPU核數的8倍,有些業務設置為CPU核數的32倍。

 

“工作線程數”的設置依據是什么,到底設置為多少能夠最大化CPU性能,是本文要討論的問題。

 

二、共性認知

在進行進一步深入討論之前,先以提問的方式就一些共性認知達成一致。

 

問:工作線程數是不是設置的越大越好?

答:肯定不是的

  • 服務器CPU核數有限,能夠同時並發的線程數有限,單核CPU設置10000個工作線程沒有意義

  • 線程切換是有開銷的,如果線程切換過於頻繁,反而會使性能降低

 

問:調用sleep()函數的時候,線程是否一直占用CPU?

答:不占用,等待時會把CPU讓出來,給其他需要CPU資源的線程使用。

 

不止sleep()函數,在進行一些阻塞調用時,例如網絡編程中的:

  • 阻塞accept(),等待客戶端連接

  • 阻塞recv(),等待下游回包

都不占用CPU資源。

 

問:單核CPU,設置多線程有意義么,是否能提高並發性能?

答:即使是單核,使用多線程也是有意義的,大多數情況也能提高並發

  • 多線程編碼可以讓代碼更加清晰,例如:IO線程收發包,Worker線程進行任務處理,Timeout線程進行超時檢測

  • 如果有一個任務一直占用CPU資源在進行計算,此時增加線程並不能增加並發,例如以下代碼會一直占用CPU,並使得CPU占用率達到100%:

     while(1){ i++; }

  • 通常來說,Worker線程一般不會一直占用CPU進行計算,此時即使CPU是單核,增加Worker線程也能夠提高並發,因為這個線程在休息的時候,其他的線程可以繼續工作

 

三、常見服務線程模型

了解常見的服務線程模型,有助於理解服務並發的原理,一般來說互聯網常見的服務線程模型有兩種:

  • IO線程與工作現場通過任務隊列解耦

  • 純異步

 

IO線程與工作線程通過隊列解耦類模型

 

 


如上圖,大部分Web-Server與服務框架都是使用這樣的一種“IO線程與Worker線程通過隊列解耦”類線程模型:

  • 有少數幾個IO線程監聽上游發過來的請求,並進行收發包(生產者)

  • 有一個或者多個任務隊列,作為IO線程與Worker線程異步解耦的數據傳輸通道(臨界資源)

  • 有多個工作線程執行正真的任務(消費者)

 

這個線程模型應用很廣,符合大部分場景,這個線程模型的特點是,工作線程內部是同步阻塞執行任務的(回想一下tomcat線程中是怎么執行Java程序的,dubbo工作線程中是怎么執行任務的),因此可以通過增加Worker線程數來增加並發能力,今天要討論的重點是“該模型Worker線程數設置為多少能達到最大的並發”。

 

純異步線程模型

沒有阻塞,這種線程模型只需要設置很少的線程數就能夠做到很高的吞吐量,該模型的缺點是:

  • 如果使用單線程模式,難以利用多CPU多核的優勢

  • 程序員更習慣寫同步代碼,callback的方式對代碼的可讀性有沖擊,對程序員的要求也更高

  • 框架更復雜,往往需要server端收發組件,server端隊列,client端收發組件,client端隊列,上下文管理組件,有限狀態機組件,超時管理組件的支持

 

文章《RPC-client異步收發核心細節?》中有更詳細的介紹,however,這個模型不是今天討論的重點,

 

四、工作線程的工作模式

了解工作線程的工作模式,對量化分析線程數的設置非常有幫助:

 

 


上圖是一個典型的工作線程的處理過程,從開始處理start到結束處理end,該任務的處理共有7個步驟:

  • 從工作隊列里拿出任務,進行一些本地初始化計算,例如http協議分析、參數解析、參數校驗等

  • 訪問cache拿一些數據

  • 拿到cache里的數據后,再進行一些本地計算,這些計算和業務邏輯相關

  • 通過RPC調用下游service再拿一些數據,或者讓下游service去處理一些相關的任務

  • RPC調用結束后,再進行一些本地計算,怎么計算和業務邏輯相關

  • 訪問DB進行一些數據操作

  • 操作完數據庫之后做一些收尾工作,同樣這些收尾工作也是本地計算,和業務邏輯相關

 

分析整個處理的時間軸,會發現:

  • 其中1,3,5,7步驟中(上圖中粉色時間軸),線程進行本地業務邏輯計算時需要占用CPU

  • 而2,4,6步驟中(上圖中橙色時間軸),訪問cache、service、DB過程中線程處於一個等待結果的狀態,不需要占用CPU,進一步的分解,這個“等待結果”的時間共分為三部分:

    2.1)請求在網絡上傳輸到下游的cache、service、DB

    2.2)下游cache、service、DB進行任務處理

    2.3)cache、service、DB將報文在網絡上傳回工作線程

 

五、量化分析並合理設置工作線程數

最后一起來回答工作線程數設置為多少合理的問題。

 

通過上面的分析,Worker線程在執行的過程中,有一部計算時間需要占用CPU,另一部分等待時間不需要占用CPU,通過量化分析,例如打日志進行統計,可以統計出整個Worker線程執行過程中這兩部分時間的比例,例如:

  • 執行計算,占用CPU的時間(粉色時間軸)是100ms

  • 等待時間,不占用CPU的時間(橙色時間軸)也是100ms

 

得到的結果是,這個線程計算和等待的時間是1:1,即有50%的時間在計算(占用CPU),50%的時間在等待(不占用CPU):

  • 假設此時是單核,則設置為2個工作線程就可以把CPU充分利用起來,讓CPU跑到100%

  • 假設此時是N核,則設置為2N個工作現場就可以把CPU充分利用起來,讓CPU跑到N*100%

 

結論:

N核服務器,通過執行業務的單線程分析出本地計算時間為x,等待時間為y,則工作線程數(線程池線程數)設置為 N*(x+y)/x,能讓CPU的利用率最大化。

 

經驗:

一般來說,非CPU密集型的業務(加解密、壓縮解壓縮、搜索排序等業務是CPU密集型的業務),瓶頸都在后端數據庫訪問或者RPC調用,本地CPU計算的時間很少,所以設置幾十或者幾百個工作線程是能夠提升吞吐量的。

 

六、總結

    • 線程數不是越多越好

    • sleep()不占用CPU

    • 單核設置多線程不但能使得代碼清晰,還能提高吞吐量

    • 站點和服務最常用的線程模型是“IO線程與工作現場通過任務隊列解耦”,此時設置多工作線程可以提升吞吐量

    • N核服務器,通過日志分析出任務執行過程中,本地計算時間為x,等待時間為y,則工作線程數(線程池線程數)設置為 N*(x+y)/x,能讓CPU的利用率最大化


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM