知乎網站架構變遷史——閱讀心得


初期架構選型

2010年10月真正開始動手做知乎這個產品時,包含李申申在內,最初只有兩位工程師;到2010年12月份上線時,工程師是四個。

知乎的主力開發語言是Python。因為Python簡單且強大,能夠快速上手,開發效率高,而且社區活躍,團隊成員也比較喜歡。

知乎使用的是Tornado框架。因為它支持異步,很適合做實時comet應用,而且簡單輕量,學習成本低,再就是有FriendFeed 的成熟案例,Facebook 的社區支持。知乎的產品有個特性,就是希望跟瀏覽器端建立一個長連接,便於實時推送Feed和通知,所以Tornado比較合適。


最初的想法是用雲主機,節省成本。知乎的第一台服務器是
512MB內存的Linode主機。但是網站上線后,內測受歡迎程度超出預期,很多用戶反饋網站很慢。跨國網絡延遲比想象的要大,特別是國內的網絡不均衡,全國各地用戶訪問的情況都不太一樣。這個問題,再加上當時要做域名備案,知乎又回到了自己買機器找機房的老路上。最初整個團隊的精力全部放在產品功能的開發上,而其他方面,基本上能節約時間、能省的都用最簡單的方法來解決,當然這在后期也帶來了一些問題。

買了機器、找了機房之后又遇到了新的問題,服務經常宕掉。當時服務商的機器內存總是出問題,動不動就重啟。終於有一次機器宕掉起不來了,這時知乎就做了Web和數據庫的高可用。創業就是這樣一個情況,永遠不知道明早醒來的時候會面臨什么樣的問題。

 

 

 

 

這是當時那個階段的架構圖,Web和數據庫都做了主從。當時的圖片服務托管在又拍雲上。 除了主從,為了性能更好還做了讀寫分離。為解決同步問題,又添加了一個服務器來跑離線腳本,避免對線上服務造成響應延遲。另外,為改進內網的吞吐量延遲, 還更換了設備,使整個內網的吞吐量翻了20倍。

2011年上半年時,知乎對Redis已經很依賴。除了最開始的隊列、搜索在用,后來像Cache也開始使用,單機存儲成為瓶頸,所以引入了分片,同時做了一致性。

知乎團隊是一個很相信工具的團隊,相信工具可以提升效率。工具其實是一個過程,工具並沒有所謂的最好的工具,只有最適合的工具。而且它是在整個過程中,隨着整個狀態的變化、環境的變化在不斷發生變化的。知乎自己開發或使用過的工具包括Profiling(函數級追蹤請求,分析調優)、Werkzeug(方便調試的工具)、Puppet(配置管理)和Shipit(一鍵上線或回滾)等。

日志系統

知乎最初是邀請制的,2011年下半年,知乎上線了申請注冊,沒有邀請碼的用戶也可以通過填寫一些資料申請注冊知乎。用戶量又上了一個台階,這時就有了一些發廣告的賬戶,需要掃除廣告。日志系統的需求提上日程。

這個日志系統必須支持分布式收集、集中存儲、實時、可訂閱和簡單等特性。當時調研了一些開源系統,比如Scribe總體不錯,但是不支持訂閱。Kafka是Scala開發的,但是團隊在Scala方面積累較少,Flume也是類似,而且比較重。所以開發團隊選擇了自己開發一個日志系統——Kids(Kids Is Data Stream)。顧名思義,Kids是用來匯集各種數據流的。

Kids參考了Scribe的思路。Kdis在每台服務器上可以配置成Agent或 Server。Agent直接接受來自應用的消息,把消息匯集之后,可以打給下一個Agent或者直接打給中心Server。訂閱日志時,可以從 Server上獲取,也可以從中心節點的一些Agent上獲取。


 

  

 

具體細節如下圖所示:


 

  

 

 

 

知乎還基於Kids做了一個Web小工具(Kids Explorer),支持實時看線上日志,現在已經成為調試線上問題最主要的工具。(Kids已經開源,Github上可見。)

事件驅動的架構

知乎這個產品有一個特點,最早在添加一個答案后,后續的操作其實只有更新通知、更新動 態。但是隨着整個功能的增加,又多出了一些更新索引、更新計數、內容審查等操作,后續操作五花八門。如果按照傳統方式,維護邏輯會越來越龐大,維護性也會 非常差。這種場景很適合事件驅動方式,所以開發團隊對整個架構做了調整,做了事件驅動的架構。


 
這時首先需要的是一個消息隊列,它應該可以獲取到各種各樣的事件,而且對一致性有很高的
要求。針對這個需求,知乎開發了一個叫Sink的小工具。它拿到消息后,先做本地的保存、持久化,然后再把消息分發出去。如果那台機器掛掉了,重啟時可以 完整恢復,確保消息不會丟失。然后它通過Miller開發框架,把消息放到任務隊列。Sink更像是串行消息訂閱服務,但任務需要並行化處理, Beanstalkd就派上了用場,由其對任務進行全周期管理。架構如下圖所示:

 

 

 

 

舉例而言,如果現在有用戶回答了問題,首先系統會把問題寫到MySQL里面,把消息塞到Sink,然后把問題返回給用戶。Sink通過Miller把任務發給 Beanstalkd,Worker自己可以找到任務並處理。

最開始上線時,每秒鍾有10個消息,然后有70個任務產生。現在每秒鍾有100個事件,有1500個任務產生,就是通過現在的事件驅動架構支撐的。

頁面渲染優化

知乎在2013年時每天有上百萬的PV,頁面渲染其實是計算密集型的,另外因為要獲取數據,所以也有IO密集型的特點。這時開發團隊就對頁面進行了組件化,還升級了數據獲取機制。知乎按照整個頁面組件樹的結構,自上而下分層地獲取數據,當上 層的數據已經獲取了,下層的數據就不需要再下去了,有幾層基本上就有幾次數據獲取。

結合這個思路,知乎自己做了一套模板渲染開發框架——ZhihuNode。

經歷了一系列改進之后,頁面的性能大幅度提升。問題頁面從500ms 減少到150ms,Feed頁面從1s減少到600ms。

面向服務的架構(SOA)

隨着知乎的功能越來越龐雜,整個系統也越來越大。知乎是怎么做的服務化呢?

首先需要一個最基本的RPC框架,RPC框架也經歷了好幾版演進。

第一版是Wish,它是一個嚴格定義序列化的模型。傳輸層用到了STP,這是自己寫的很 簡單的傳輸協議,跑在TCP上。一開始用的還不錯,因為一開始只寫了一兩個服務。但是隨着服務增多,一些問題開始出現,首先是 ProtocolBuffer會 生成一些描述代碼,很冗長,放到整個庫里顯得很丑陋。另外嚴格的定義使其不便使用。這時有位工程師開發了新的RPC框架——Snow。它使用簡單的 JSON做數據序列化。但是松散的數據定義面對的問題是,比如說服務要去升級,要改寫數據結構,很難知道有哪幾個服務在使用,也很難通知它們,往往錯誤就 發生了。於是又出了第三個RPC框架,寫RPC框架的工程師,希望結合前面兩個框架的特點,首先保持Snow簡單,其次需要相對嚴格的序列化協議。這一版 本引入了 Apache Avro。同時加入了特別的機制,在傳輸層和序列化協議這一層都做成了可插拔的方式,既可以用JSON,也可以用Avro,傳輸層可以用STP,也可以用 二進制協議。

再就是搭了一個服務注冊發現,只需要簡單的定義服務的名字就可以找到服務在哪台機器上。同時,知乎也有相應的調優的工具,基於Zipkin開發了自己的 Tracing系統。

按照調用關系,知乎的服務分成了3層:聚合層、內容層和基礎層。按屬性


 
又可以分成
3類:數據服務、邏輯服務和通道服務。數據服務主要是一些要做特殊數據類型的存儲,比如圖片服務。邏輯服務更多的是CPU密集、計算密集的操作,比如答案格式的定義、解析等。通道服務的特點是沒有存儲,更多是做一個轉發,比如說Sink。

 

這是引入服務化之后整體的架構。

 

 

 

 

 原文地址:https://mp.weixin.qq.com/s?__biz=MjM5NTg2NTU0Ng==&mid=403282668&idx=3&sn=c9d5c13f797adfde514c144e8f1cfce0&scene=21#wechat_redirect


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM