一、作用
提供“實時”的企業數據集成
在建數據倉庫、大數據中心(數據中台)實現數據實時處理和傳遞運營數據的價值時……先期必須進行數據匯總、數據抽取、數據分發、數據清洗、數據過濾、數據轉換、數據共享…… 都面臨從各復雜業務數據庫中“實時”數據集成的首要解決方案——從更廣泛的方面(而不只是數據倉庫、數據中台)實現數據的實時轉換和處理運營數據的功能,從而幫助企業實時運營數據與存儲在企業數據倉庫中的歷史信息集成起來,以推動業務流程,加快決策過程。
數據集成
二、傳統方式
腳本、儲存、磁盤、流量
傳統的數據實時同步處理需寫腳本、存儲。或者直接通過拷貝磁盤、拷貝流量等方式實現增量數據捕獲。當前數據同步諸多難題:數據異構嚴重、對數據庫干擾頻繁、數據量巨大、數據同步的實時性不高、數據的一致性無法保證、跨網絡邊界交互、入庫后不可直接使用、維護成本過高等。
企業現狀
三、應用場景
拓撲結構
在數據實時同步中涉及多級匯總、多級分發、多級同步、實時同步、雙向同步
實際應用場景
四、概述
編碼、數據庫
關於數據同步主要有兩個層面的同步,一是通過后台程序編碼實現數據同步,二是直接作用於數據庫,在數據庫層面實現數據的同步。
通過程序編碼實現數據同步,其主要的實現思路很容易理解,即有就更新,無則新增,其他情況日志記錄,就不做過多的介紹,這里主要講述的是第二個層面的數據同步,即在數據庫層面實現數據同步。
數據庫層面的數據庫同步主要有四類增量同步處理機制:時間戳、觸發器、日志解析、差異更新。
北京靈蜂ETL實時同步組件擁有的“全量同步”和“增量同步”四類機制。可以快速的實現數據同步,無需編寫任何代碼,圖形配置即可。
全量同步 /圖形配置
增量同步/圖形配置
差異更新 /圖形配置
通過同步ETL 任務與定時機制的結合實現數據同步功能,靈蜂ETL工具提供靈活的定時機制(工作流內部定時或作業定時),時間粒度最小可以設為秒級,通過對同步ETL 任務周期性的定時觸發,達到對變化數據的實時同步。數據從抽取到裝載采用原子事務操作,充分保證了數據的完整性。
五、靈蜂ETL工具 實時數據同步
主要特征
-
圖形化:全中文圖形化,方便快捷無需代碼,符合國人用戶使用習慣
-
自主性:同步數據的用戶、表、字段,以及自定義數據過濾條件
- 同步過程高度可控: 全流程運行狀態實時監控、交換記錄細粒度審計及查詢、異常實時報警
-
低延遲: 支持數據的秒級延遲同步
-
零丟失:斷點續傳,保證數據同步一致性,確保源、目標數據實時完整性
-
高效性:增量傳輸、節省網絡資源,提高同步效率
-
同步多樣化:數據結構同步、異構數據庫同步、定時同步的雙向集成
-
海量數據同步:支持TB級存量數據在線遷移、日均數億條增量數據同步、上萬張數據表
-
數據異構同步: 支持各種軟硬件平台、數據庫類型、字符集、數據結構等的異構同步
-
拓撲結構:一對一、一對多、多對一、多對多、單向、雙向
-
支持數據庫豐富性:主流數據庫、全球熱榜 數據庫
-
原廠服務:獨立軟件提供商,專業 “即刻響應”服務
-
國產化:國產自研核心 C/S架構 JAVA研發
IT機構、開發團隊以及開發人員使用靈蜂ETL工具 實時數據同步組件實現:
- 通過對各種實時數據源進行雙向集成,推動零延遲實時數據的業務流程
- 通過實時傳遞企業需要的數據信息加快決策過程
- 通過支持基於數據源和用戶定義的提交以及基於規則定義,確保實時數據的完整性