使用ElasticSearch賦能HBase二級索引 | 實踐一年后總結


前言:還記得那是2018年的一個夏天,天氣特別熱,我一邊擦汗一邊聽領導大刀闊斧的講述自己未來的改革藍圖。會議開完了,核心思想就是:我們要搞一個數據大池子,要把公司能灌的數據都灌入這個大池子,然后讓別人用 各種姿勢 來撈這些數據。系統從開始打造到上線差不多花了半年多不到一年的時間,線上穩定運行也有一年多的時間。今天想簡單做個總結。

一。背景介紹

公司成立差不多十五六年了,老公司了。也正是因為資格老,業務迭代太多了,各個業務線錯綜復雜,接口調用也密密麻麻。有時候A向B要數據,有時候B向C要接口,有時候C向A要服務;各個業務線各有各的財產,各自為營,像一個個小諸侯擁兵自重,跑腿費會議費都貴的很。面對這個現狀,我們急需進行一波大改造了。

而這個系統(我們暫且叫它天池吧),正是為了整合公司各個業務線的資源,改造這個錯綜復雜的蜘蛛網為簡單的直線班車。省去不必要的接口調用、業務穿插、會議溝通以及不知去哪里拿數據、拿不到數據、拿數據慢的困擾。當然,更節省了產品、開發人員的時間,提升了各業務線整體工作效率。

幾個詞形容一下天池:穩、快、大、省、清晰。

二。業務梳理

經過對公司各線業務進行梳理,總結出以下幾大常見的數據輸出模型:

  • Key-Value快速輸出型,最簡單的kv查詢,並發量可能很高,速度要求快。比如風控。

  • Key-Map快速輸出型,定向輸出,比如常見的通過文章id獲取文章詳情數據,kv查詢升級版。

  • MultiKey-Map批量輸出型,比如常見的推薦Feed流展示,Key-Map查詢升級版。

  • C-List多維查詢輸出型,指定多個條件進行數據過濾,條件可能很靈活,分頁輸出滿足條件的數據。這應該是非常常見的,比如篩選指定標簽或打分的商品進行推薦、獲取指定用戶過去某段時間買過的商品等等。

  • G-Top統計排行輸出型,根據某些維度分組,展示排行。如獲取某論壇熱度最高Top10帖子。

  • G-Count統計分析輸出型,數倉統計分析型需求。

  • Multi-Table混合輸出型,且不同表查詢條件不同,如列表頁混排輸出內容。

  • Term分詞輸出型

或許還有更多數據模型,這里就不再列舉了。從前端到后台,無論再多數據模型,其實都可以轉化為索引+KV的形式進行輸出,甚至有時候,我覺得索引+KV>SQL

基於此業務數據模型分析及公司對ElasticSearch的長期使用,我們最終選擇了HBase + ElasticSearch這樣的技術方案來實現。

三。架構設計與模塊介紹

先看一下整體架構圖,如下圖:
架構設計

整個天池系統核心主要分為數據接入層、策略輸出層、元數據管理、索引建立、平台監控以及離線數據分析六大子模塊,下面將分別對其進行介紹。

1. 數據接入模塊介紹

數據接入模塊我們主要對HBase-Client API進行了二次輕封裝,支持在線RESTFUL服務接口和離線SDK包兩種主要方式對外提供服務,同時兼容HBase原生API和HBase BulkLoad大批量數據寫入。

其中,在線RESTFUL服務以HBase Connection長連接的方式對外提供服務,好處是:在性能影響不大的情況下方便跨語言操作,更主要的一點是便於管理。在這一層,可以做很多工作,比如權限管理、負載均衡、失敗恢復、動態擴縮容、數據接口監控等等,當然這一切都要感謝K8S的強大能力。

2. 策略輸出模塊介紹

該模塊主要就是對接我們上文業務梳理模塊歸納的各種業務需求,都由此模塊提供服務。顧名思義,策略模塊主要用於為用戶配置策略,或用戶自己配置策略,最終基於策略生成策略ID。

這一層我們主要是對ElasticSearch和HBase的一些封裝,通過動態模板將用戶請求轉化為ElasticSearch DSL語句,而后對ES進行查詢,直接返回數據或是獲取到rowkey進而查詢HBase進行結果返回。

通過元數據管理中心,我們可以判斷出用戶所需字段是否被索引字段覆蓋,是否有必要二次查詢HBase返回結果。而這整個查詢過程,用戶並不會感知,他們只需要一個PolicyID即可。

當然,我們也在不斷普及用戶如何通過后台自己配置生成策略。合作較多的業務方,甚至可以自己在測試環境配置好一切,完成數據的自助獲取工作。而我們需要做的,只是一鍵同步測試環境的策略到線上環境,並通知他們線上已可用。整個過程5~10分鍾,一個新的接口就誕生了。

其次,由於ES抗壓能力畢竟不如HBase猛,我們的策略接口也會根據業務需求決定是否開啟緩存。事實上,大部分接口是可以接受短時間內數據緩存的。當然像簡單KV、K-Map、Mk-Map這種是直接走HBase的,需求量也挺大。

到目前為止,上述業務輸出模型基本都已支持動態策略配置。這真的要感謝ElasticSearch強大的語法和業務場景覆蓋能力,畢竟在我看來,ElasticSearch更像是一個為業務而生的產品。深入了解ES后,你會發現在有些方面它真的比SQL更強大;現在我們的策略平台甚至支持分詞查詢、分桶查詢、多表聯合查詢、TopN、聚合查詢等多種復合查詢,這都要感謝ElasticSearch強大的功能。

3. 元數據管理模塊介紹

大家都知道HBase是No-Schema模型,元數據管理層我們也就是為其和ES做一個虛擬的Schema管理,同時去動態控制哪些字段要建索引。在數據接入的時候,我們會通過元數據中心判斷數據是否符合規則(我們自己定的一些規則);在數據輸出的時候,我們控制哪些策略需要走緩存,哪些策略不需要走HBase等等。其次,維護一套元數據方便我們做一些簡單的頁面指標監控,並對ES和HBase有一個總線控制(如建表刪表等),該模塊就不多說了。

4. 索引建立模塊介紹

這個模塊呢,其實算是相對比較復雜的一個模塊。我們沒有采用HBase + WAL + ES的方式而是HBase + Kafka + ES 的方式去同步索引數據。一是因為WAL層不太好控制和監控,二是ES消費WAL的效率問題,三是WAL層數據一致性不好維護。

所以我們把一部分的工作放到了數據接入層,在數據寫完HBase之后,即對外響應Success並異步將數據推至Kafak隊列中等待ES去二次消費;寫入失敗則對外拋出異常,我們首先要保證的是,寫入HBase要么成功,要么失敗。

在ES消費層,我們是可以動態指定消費線程數量的。當Kafka Lag堆積超過一定閾值(閾值可進行Group級調節和監控),會進行警報,並動態調整消費線程數。

在數據一致性方面,我們也做了大量工作,且我們只保證數據最終一致性。當數據寫入HBase成功之后,我們會對寫Kafka和寫ES進行鏈路追蹤,任何一個環節一旦寫入失敗,即將Failed Key寫入黑名單(Redis存儲)。

對於進入黑名單的數據,我們會起定時調度線程去掃描這些Key並進行自動回補索引。回補方式是:到HBase中拿最新的數據再次寫入隊列中去。如果此時又失敗,我們會把這些Key放入終極死亡名單(Redis存儲),並通過定時調度線程去掃描這個死亡名單,如果有屍體,則報警,此時人力介入。

這種分層處理方式,也是借鑒了些許HBase LSM的思想,勿噴勿噴~

我簡單畫了一下這個流程,方便大家理解,見下圖:

數據流程圖

5. 平台監控模塊介紹

該模塊不再細說了,主要是Hadoop集群、HBase集群的監控,外加K8S平台監控。K8S監控平台主要基於Prometheus+Grafana+Fluent實現。

6. 離線數據分析模塊介紹

該模塊依賴於HBase Replication集群間復制功能實現。數據在同步至離線HBase集群之后,主要用於對接數據倉庫、Spark讀寫分析、大范圍掃描操作等等。主要是減小面向分析型作業對線上實時平台的影響。

六大模塊就簡單介紹到這里。

四。心得

總的感受:使用ES賦能HBase感覺很融洽,ES很棒,ES+HBase真的可以媲美SQL了。

好像ES天生跟HBase是一家人,HBase支持動態列,ES也支持動態列,這使得兩者結合在一起很融洽。而ES強大的索引功能正好是HBase所不具備的,如果只是將業務索引字段存入ES中,體量其實並不大;甚至很多情況下,業務索引字段60%以上都是Term類型,根本不需要分詞。雖然我們還是支持了分詞,比如多標簽索引就會用到。

很多設計者可能會覺得HBase + Kafka + ES三者結合在一起有點太重了,運維成本很高,有點望而卻步。但轉換角度想一下,我們不就是搞技術的嘛,這下子可以三個成熟產品一起學了!現在看來,收獲還是大於付出的。

至於ES和Solr選擇誰去做二級索引的問題,我覺得差別不大,根據自家公司的現狀做選擇就好了。

最后,還是要為ElasticSearch點個贊!不錯的產品!

五。未來要做的事

  • 多租戶全鏈路打通
  • 策略層SQL支持
  • 系統不斷優化、產品化

掃描二維碼關注博主公眾號

轉載請注明出處!歡迎關注本人微信公眾號【HBase工作筆記】


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM