簡介: B 站選擇 Flink + Hudi 的數據湖技術方案,以及針對其做出的優化。 本文作者喻兆靖,介紹了為什么 B 站選擇 Flink + Hudi 的數據湖技術方案,以及針對其做出的優化。主要內容為: 傳統離線數倉痛點 數據湖技術方案 Hudi 任務穩定性 ...
簡介:本文介紹了百信銀行實時計算平台的建設情況,實時數據湖構建在 Hudi 上的方案和實踐方法,以及實時計算平台集成 Hudi 和使用 Hudi 的方式。 本文介紹了百信銀行實時計算平台的建設情況,實時數據湖構建在 Hudi 上的方案和實踐方法,以及實時計算平台集成 Hudi 和使用 Hudi 的方式。內容包括: 背景 百信銀行基於 Flink 的實時計算平台設計與實踐 百信銀行實時計算平台與實時 ...
2021-05-14 09:34 0 285 推薦指數:
簡介: B 站選擇 Flink + Hudi 的數據湖技術方案,以及針對其做出的優化。 本文作者喻兆靖,介紹了為什么 B 站選擇 Flink + Hudi 的數據湖技術方案,以及針對其做出的優化。主要內容為: 傳統離線數倉痛點 數據湖技術方案 Hudi 任務穩定性 ...
Hudi特性 數據湖處理非結構化數據、日志數據、結構化數據 支持較快upsert/delete, 可插入索引 Table Schema 小文件管理Compaction ACID語義保證,多版本保證 並具有回滾功能 savepoint 用戶數據 ...
1. 引入 開源Apache Hudi項目為Uber等大型組織提供流處理能力,每天可處理數據湖上的數十億條記錄。 隨着世界各地的組織采用該技術,Apache開源數據湖項目已經日漸成熟。 Apache Hudi(Hadoop Upserts Deletes and Incrementals ...
作者:李少鋒 文章目錄: 一、CDC背景介紹 二、CDC數據入湖 三、Hudi核心設計 四、Hudi未來規划 1. CDC背景介紹 首先我們介紹什么是CDC?CDC的全稱是Change data Capture,即變更數據捕獲,它是數據庫領域非常常見的技術,主要用於捕獲數據庫的一些 ...
摘要:今天我們就來解構數據湖的核心需求,同時深度對比Apache CarbonData、Hudi和Open Delta三大解決方案,幫助用戶更好地針對自身場景來做數據湖方案選型。 背景 我們已經看到,人們更熱衷於高效可靠的解決方案,擁有為數據湖提供應對突變和事務處理的能力。在數據湖中 ...
1. 引入 大多數現代數據湖都是基於某種分布式文件系統(DFS),如HDFS或基於雲的存儲,如AWS S3構建的。遵循的基本原則之一是文件的“一次寫入多次讀取”訪問模型。這對於處理海量數據非常有用,如數百GB到TB的數據。 但是在構建分析數據湖時,更新數據並不罕見。根據不同場景,這些更新頻率 ...
本次分享分為5個部分介紹Apache Hudi的應用與實踐 實時數據落地需求演進 基於Spark+Hudi的實時數據落地應用實踐 基於Flink自定義實時數據落地實踐 基於Flink+Hudi的應用實踐 后續應用規划及展望 1. 實時數據落地需求演進 實時平台 ...
1. Hudi核心概念 Hudi核心組件結構 通過Hudi客戶端把數據寫入Hudi, 寫入的時候有兩種方式: COW(copy on write)寫時復制-java中的讀寫分離 MOR(merge on read)讀時合並 (讀數據的時候先合並,寫數據時寫到par文件中 ...