上篇:架構及組件
一、數據平台的發展
1.1 背景介紹
隨着數據時代的到來,數據量和數據復雜度的增加推動了數據工程領域的快速發展。為了滿足各類數據獲取/計算等需求,業內涌現出了諸多解決方案。但大部分方案都遵循以下原則:
-
降低數據處理成本
-
合理提高數據使用/計算效率
-
提供統一的編程范式
宜人貸的數據服務平台也是遵循這三個原則。本人有幸親身經歷了宜人貸數據平台Genie的整個發展過程,縱觀宜人貸和業內,可以說Genie的發展是工業界數據平台發展的縮影。
Google 的三大論文和Apache Hadoop 開源生態圈的發布應該是大數據處理技術走進“尋常百姓家”的起點。Hadoop 的組件均可在普通的廉價機器上運行,加上其代碼是開源的,因此得到了眾多公司的熱捧。那么一開始這些公司都用它來做什么呢?
答案是數據倉庫。
注:Google三大論文:Bigtable: A Distributed Storage System for Structured Data;The Google File System;MapReduce: Simplefied Data Processing on Large Clusters
所以早期的數據平台大概的架構都是由Sqoop+HDFS+Hive這三個組件組成,因為這個是搭建數據倉庫最廉價高效的方式。此時數據倉庫只能回答過去發生了什么(離線階段),因為Sqoop離線抽取一般采用的t+1快照方案,也就是說只有昨天的數據。
緊接着由於對數據實時性的需求提高了,需要實時做增量數據的關聯聚合等復雜運算,這個時候數據平台就會加入分布式流計算的架構,如:Strom ,Flink, Spark Streaming 等。此時的數據倉庫可以回答的是正在發生什么(實時階段)。
由於離線數據處理流程(如:Sqoop+HDFS+Hive)和實時數據處理流程(如:Binlog+Spark Steaming+Hbase)兩套流程計算邏輯耦合較大,並且通過組合才能支持實時全量的數據分析,所以就產生了很多架構,如早期的Lambda,Kappa等。此時歷史數據和實時數據結合數據倉庫可以回答什么終將會發生(預測階段)。
數據平台發展至此已經不再是一個數據倉庫就能解釋的了,它與各類業務部門緊密合作(如營銷、電銷、運營)打造出諸多數據產品。此時數據倉庫(數據平台)已經進入了主動決策階段。
其實預測和實時的發展順序不同的公司有所不同,只用歷史數據就可以做出預測。
1.2 數據平台定位
數據平台應該屬於基礎架構的重要環節,曾經互聯網行業內有很多公司跟風搭建了大數據集群后發現很難發揮真正價值,其實最重要的原因應該是對數據使用的定位以及對數據平台的定位問題。目前的數據平台定位有以下幾點:
- 決策賦能
為決策層賦能,決策層通過使用BI報表快速了解公司運營情況,因為數據不會說假話。
- 業務數據分析/業務數據產品
平台可以提供Adhoc即時分析,幫助分析師快速分析業務、快速定位問題、快速反饋。
- 計算存儲
業務數據產品也可以充分利用平台的計算存儲資源打造數據產品,如推薦、智能營銷等等。
- 效率
提升數據處理效率,從而節約數據挖掘/處理的時間成本。
大部分公司早期人員架構如下圖:
運營、營銷以及決策層直接使用平台,大部分就是直接查看BI報表。業務分析師梳理完業務需求會把需求提供給數據倉庫工程師,然后專業的數據倉庫工程師會把新的需求加入已存在的公司級別的數據倉庫之中。數據工程團隊主要負責運維集群。
1.3 初期架構的缺點
初期為什么是這樣的架構這里就不做過多描述了,我們直接說一下它的缺點。
-
當決策層使用報表時發現總是慢了一拍,總會有新的需求出來。原因很簡單:其實互聯網公司的業務並不像傳統行業(如銀行、保險等)的業務那么穩定,因為互聯網公司的發展比較快,業務更新迭代的也很快。
-
業務分析總有各種臨時的需求,原因和1類似。
-
數據倉庫工程師累成狗。數據倉庫龐大笨重,很難靈活的運作,總是牽一發而動全身。
-
集群作業運維困難,作業間耦合性太大,例如:A業務的表a 沒跑出來直接影響了整個公司的所有作業。
1.4 常見解決方案
相信這些頭疼的問題很多公司都遇到過,解決方式應該也是類似的。大體如下:
-
搭建產品化的數據服務平台。
-
數據倉庫能量轉移到更加基礎更加底層的數據問題,如數據質量問題、數據使用規范、數據安全問題、模型架構設計等。
-
業務分析師直接利用平台搭建業務數據集市,提高敏捷性和專用性。
-
數據工程主要職責不再是運維集群,而是搭建數據服務平台和構建業務數據產品。
這樣做的好處是:
-
解決了數據倉庫的瓶頸問題。
-
讓最熟悉自己數據的人自己搭建數據集市,效率更高。
-
業務數據產品可以直接使用數據服務平台提高效率,縮減公司成本。
二、宜人貸數據平台Genie架構及特點
2.1 Genie架構
宜人貸屬於互聯網金融公司,由於帶有金融屬性,所以對平台的安全性、穩定性、數據質量等方面的要求要高於一般的互聯網公司。目前在宜人貸的數據結構中,數據總量為PB級別,每天增量為TB級別。除了結構化的數據之外,還有日志、語音等數據。數據應用類型分為運營和營銷兩大類,如智能電銷、智能營銷等。數據服務平台需要保證每天幾千個批量作業按時運行,並保證數據產品對數據實時計算的效率以及准確性,與此同時,又要保證每天大量Adhoc查詢的實效性。
以上是平台底層技術架構圖,整體是一個Lambda架構,Batch layer 負責計算t+1的數據,大部分定時報表和數據倉庫/集市的主要任務在這一層處理。Speed layer 負責計算實時增量數據,實時數倉,增量實時數據同步,數據產品等主要使用這一層的數據。Batch layer 采用sqoop定時同步到HDFS集群里,然后用Hive和Spark SQL 進行計算。Batch layer的穩定性要比運算速度重要,所以我們主要針對穩定性做了優化。Batch layer的輸出就是Batch view。Speed layer 相對Batch layer 來說數據鏈路會長一些,架構也相對復雜。
DBus和Wormhole是宜信的開源項目,主要用來做數據管道。DBus的基本原理是通過讀取數據庫的binlog來進行實時的增量數據同步,主要解決的問題是無侵入式的進行增量數據同步。當然也有其他方案,比如卡時間戳,增加trigger等,也能實現增量數據同步,但是對業務庫的壓力和侵入性太大。Wormhole的基本原理是消費DBus同步過來的增量數據並把這些數據同步給不同的存儲,支持同構和異構的同步方式。
總體來說Speed layer 會把數據同步到我們的各種分布式數據庫中,這些分布式數據庫統一稱為Speed view 。然后我們把Batch和Speed的元數據統一抽象出來一層叫Service layer。Service layer 通過NDB對外統一提供服務。因為數據有兩個主要屬性,即data=when+what。在when這個時間維度上來說數據是不可變的,增刪改其實都是產生了新的數據。在平時的數據使用中我們常常只關注what的屬性,其實when+what才能確定data的唯一不可變特性。所以按照時間這個維度我們可以對數據進行時間維度的抽象划分,即t+1的數據在Batch view,t+0的數據在Speed view 。這是標准Lambda架構的意圖:把離線和實時計算分開。但是我們的Lambda架構有些許差異(此處不做過多表述)。
要知道集群資源是有限的,把離線和實時等計算架構放在一個集群內必然會出現資源搶占的問題。因為每個公司的計算存儲方案可能不一樣,我在這里僅僅以我們的方案為例,希望能起到拋磚引玉的作用。
要解決搶占問題,首先讓我們清晰的認識一下搶占。從用戶使用維度上來說,如果平台是多租戶的,那么租戶之間便存在搶占的可能性;從數據架構上來說,如果離線計算和實時計算沒有分開部署,那么也存在搶占的可能性。需要強調的是搶占不僅僅是指cpu和內存資源的搶占,網絡io 磁盤的io也是會搶占的。
目前開源市場上的資源調度系統,如yarn,mesos等資源隔離做的都不是很成熟,只能在cpu和內存上做一些輕度隔離(hadoop3.0的 yarn 已經加入了磁盤和網絡io的隔離機制)。因為我們的工作基本上是“everything on yarn”,所以我們對yarn進行了修改。對yarn的修改和官方的解決方案類似利用cgroup來實現。對與服務進程間也要用cgroup做好隔離,如datanode nodemanager在一台機器上的時候。
上圖很好的說明了數據平台Genie的組成以及數據使用流程。先說數據使用流程,首先所有數據(包括結構化數據和非結構化數據)都會在數據倉庫中進行標准化,如:單位統一,字典統一,數據格式統一,數據命名統一等等。統一規范的數據會直接或者間接的被數據集市使用,作為數據集市的入口。數據集市之間業務耦合性很低,所以數據耦合性也就低,這樣可以很好的避免整體作業的耦合度。各個業務的數據應用也會直接使用自己的數據集市。
2.2 Genie的功能模塊
再說Genie的組成,Genie整體分七個子系統。
-
meta data: 元數據的管理是核心中的核心,元數據服務化是做數據平台的基礎中的基礎,幾乎所有的需求功能都會依賴它來開展。
-
Authority: 統一權限切面,統一管理,靈活配置。此處權限包括數據的訪問權限配置。
-
Monitor: 監控,按照租戶維度統計集群使用情況等。
- Triangle: 自研發調度系統,分布式、服務化、高可用、使用友好。如上圖是Triangle調度系統的架構圖。整體是一個Master Slave的架構,Job Runtime Dir 概念是指當前Job的運行所需要的環境完整打包提供,如Python 環境。
-
Data Dev: 上圖是一個數據開發流程。數據開發平台—開發測試上線的一站式平台,安全、快捷、支持SQL, Python, Spark Shell。
-
Data Pipeline:數據管道,用於離線數據管道配置管理和實時數據管道配置管理。可以實現1分鍾完成離線入倉配置和實時入倉配置。
-
Data Knowledge:數據知識,用於血緣關系查詢、數據指標管理。
三、總結
沒有最好的架構,只有更適合的架構 。每個公司的情況不一樣,業務模式不一樣,雖然都是ETL數據處理,都是數據倉庫,都是機器學習,但是有多少需求是數據倉庫?機器學習的應用場景是什么?ETL實時性要求是怎么樣的?這些細節都有很多復雜的客觀條件約束。
在技術架構的選型中有兩個至關重要的因素,即場景和成本。簡單來說,場景就是要做什么,要低成本的方式實現,不要過度設計。如果場景復雜,那么可以從多維度抽象細分,比如:時間維度(歷史待解決問題,目前的問題,未來可能面臨的問題)。同理,就成本而言,應該考慮的維度也很多,如:開發周期、運維復雜度、穩定性、現有人員的技術棧等等。
在下篇中,我們會從“實時數據倉庫技術細節”和“數據平台功能簡介”兩方面繼續為大家解讀宜人貸的PaaS數據服務平台Genie,敬請大家持續關注。
下篇:技術細節及功能
導讀:在上篇中,我們已經簡單了解了宜人貸數據平台Genie的特點,並且掌握了數據平台發展歷程的一些信息。本文作為下篇,首先我們會在其中重點講解實時數據倉庫的技術細節,之后介紹數據平台的功能。下面我們一起來了解一下這些知識吧~
四、實時數據倉庫技術細節
離線數據倉庫是t+1的數據,也就是說數據時效性是處理前一天的數據。一般來說離線方案同步數據的策略是每天定時同步一次數據,而且基本是同步一次全量數據,也就是說每天一個全量數據(業務庫)的鏡像。
除了時效性,還有一點就是鏡像的數據狀態只有一個,所以想知道某個值的歷史變化過程,就需要走拉鏈表(非常耗時耗資源)。實時數據倉庫的實現方式很多,但是大多都是殊途同歸。
實時數倉有兩點特點:第一訪問實時數據;第二結果能近似實時的返回。當然離線倉庫如果優化的好,完成第二點也是可以實現的。思考兩個問題,為什么要用實時數據?為什么要有實時數據倉庫?
近幾年數據工程師們在如何提高數據時效性上做了非常多的努力和嘗試。推動這些實時數據同步、處理技術發展的當然還是場景與需求。中國的大互聯網環境競爭非常激烈,如何提高用戶轉化率變得尤為關鍵。
用戶畫像、推薦系統、漏斗分析、智能營銷等等數據相關的產品都離不開實時數據的處理與計算。
獲取實時數據最直接的方式是直連業務庫,優勢明顯,缺點也很明顯,有些邏輯需要跨庫多源查詢關聯的時候直接連業務庫就行不通了。所以首先需要把多個源頭的數據集中同步起來,這個同步過程就是一個非常具有挑戰的地方,要考慮數據的時效性,對業務系統的侵入性,數據的安全性和數據的一致性等等諸多難題。
所以我們需要一個同步數據的工具,它需要有以下幾個特點:
- 能夠近似實時的同步生產庫的數據和日志數據
- 和生產庫還有應用服務器完全解耦
- 同步出來的數據可以分發到其他的存儲
- 整個同步過程保證數據不丟失,或者說可以按照任意時間批量重新同步
宜信敏捷大數據團隊開發的DBus和Wormhole能很好的滿足以上4點。
DBus利用數據庫的binlog進行數據抽取,binlog一般延遲是比較低的,這樣既保證了實時的特性,也保證了對生產庫的零侵入。
其實利用日志來構建一個健壯的數據系統是一個很常見的方案。Hbase利用wal來保證可靠性,MySQL主備同步使用binlog,分布式一致性算法Raft利用日志保證一致性,還有Apache Kafka也是利用了日志來實現的。
DBus很好的利用了數據庫的binlog日志並且進行統一的schema轉化,形成了自己日志標准,以便支持多種數據源。DBus的定義是一個商業級別的數據總線系統。它可以實時的將數據從數據源抽取發送給Kafka。
Wormhole負責將數據同步寫入其他的存儲之中。Kafka就成了一個真正意義上的數據總線,Wormhole支持sink端按照任意時間開始消費Kafka中的數據,這樣也就能很好的進行數據回溯。
Genie的實時架構如下:
有了DBus和Wormhole我們可以很輕松的把數據從生產備庫實時的同步到我們的Cassandra集群,然后再同步Presto,為用戶提供SQL語言計算。
通過這個簡單的架構我們高效的完成了實時數據倉庫的搭建,並且實現了公司的實時報表平台和一些實時營銷類的數據產品。
對於為什么會使用Presto我可以給出以下的答案:
-
Presto擁有交互級別的數據計算查詢體驗
-
Presto支持水平擴展,presto on yarn (slider)
-
支持標准SQL,並且方便擴展
-
facebook, uber, netflix生產使用
-
開源語言java符合我們團隊技術棧, 自定義函數
-
支持多數據源關聯join 邏輯下推,Presto 可以接Cassandra, Hdfs等等
-
pipelined executions - 減少了不必要的I/O開銷
Presto 是m/s架構,整體細節不多說了。Presto有個數據存儲抽象層,可以支持不同的數據存儲上執行SQL計算。Presto提供了meta data api,data location api, data stream api,支持自開發可插拔的connector。
在我們的方案中是Presto on Cassandra的,因為Cassandra相對於Hbase來說可用性更好一些,比較適合adhoc查詢場景。Hbase CAP中偏向c,Cassandra CAP中偏向a。Cassandra是一個非常優秀的數據庫,方便易用,底層使用Log-Structured Merge-Tree 做存儲索引的核心數據結構。
五、整體數據處理架構
綜上我大概的介紹了宜人貸的實時數據處理架構,下面我們看一下整體的數據處理架構。
整體Lambda架構speed層利用DBus和Wormhole組裝成了一套實時數據總線,speedlayer可以直接支撐實時數據產品。DataLake是一個抽象的概念實現方式,我們主要是利用Hdfs + Cassandra存儲數據,計算引擎主要以Hive 和Presto為主,再通過平台統一的metadata對元數據整合提供,這樣就實現了一個完整的DataLake。DataLake主要的應用場景是高級靈活的分析,查詢場景如 ml 。
DataLake和數據倉庫的區別是,DataLake更加敏捷靈活,側重數據的獲取,數據倉庫則側重於標准、管理、安全和快速索引。
六、數據平台Genie的功能模塊
整個Genie數據服務平台由7個大的子平台模塊組成:
-
數據查詢
-
數據知識
-
實時報表
-
數據開發
-
作業調度
-
權限管理
-
集群監控管理
下面我們來介紹一下其中的幾個模塊。
6.1 數據查詢模塊
-
用戶可以查詢數據倉庫、數據集市、實時數據倉庫的數據
-
通過對SQL的解析來實現細粒度的權限管理
-
提供多種查詢引擎
-
數據導出
6.2 數據知識模塊
-
元數據監控管理
-
對全公司的元數據提供管理查詢功能
-
可以監控元數據變更並預警郵件
-
血緣分析查詢引擎
-
SQL分析引擎
-
對倉庫所有的作業/表/字段進行分析
-
提供血緣分析/影響分析
6.3 數據報表模塊
-
實時數據倉庫
-
Presto on Cassandra直連Presto
-
數百張表,實時同步(DBus+WHurl)
-
達芬奇報表平台 (達芬奇url)
-
近千張報表全公司已使用
6.4 數據開發模塊
-
數據程序設計 Genie-ide
-
提供Genie-ide進行數據程序的開發
-
提供網盤進行腳本保存管理
-
可以實時測試/上線
-
數據管道
-
一鍵離線入倉
-
一鍵實時入倉
-
6.5 作業調度Triangle模塊
-
微服務架構設計每個模塊均為一個服務
-
提供restful接口可以方便二次開發與其它平台融合
-
提供健康監控作業管理后台
-
提供公共作業和私有作業
-
作業流之間邏輯隔離
-
並發控制,失敗策略管理
七、數據平台Genie的功能
以上是對數據平台Genie模塊功能的簡介,那Genie平台具體可以做哪些事情呢?
首先,它可以實現離線入倉,實時入倉 1分鍾內配置完成(數據倉庫,數據集市);
其次,實時入倉后可直接配置實時報表展示推送(BI分析);
第三,實時數據支持多種含有權限安全的同構對接方式:api ,kafka, jdbc(業務數據產品);
第四,一站式數據開發支持hive,spark-sql,presto on cassandra,python(數據開發);
第五,服務化的調度系統支持外部系統接入(基礎技術組件)。
參考文獻:
https://www.confluent.io/blog/using-logs-to-build-a-solid-data-infrastructure-or-why-dual-writes-are-a-bad-idea/
http://thesecretlivesofdata.com/raft/
https://engineering.linkedin.com/data-replication/open-sourcing-databus-linkedins-low-latency-change-data-capture-system
https://yq.aliyun.com/articles/195388
https://www.cnblogs.com/tgzhu/p/6033373.html
作者:孫立喆
來源:宜信技術學院