數據倉庫--數據分層
一、文章主題
本文主要講解數據倉庫的一個重要環節:如何設計數據分層!其它關於數據倉庫的內容可參考之前的文章。
本文對數據分層的討論適合下面一些場景,超過該範圍場景 or 數據倉庫經驗豐富的大神就不必浪費時間看了。
- 數據建設剛起步,大部分的數據經過粗暴的數據接入後就直接對接業務。
- 數據建設發展到一定階段,發現數據的使用雜亂無章,各種業務都是從原始數據直接計算而得。
- 各種重復計算,嚴重浪費了計算資源,需要優化性能。
二、文章結構
最初在做數據倉庫的時候遇到了很多坑,由於自身資源有限,接觸數據倉庫的時候,感覺在互聯網行業裏面的數據倉庫成功經驗很少,網上很難找到實踐性比較強的資料。而那幾本經典書籍裏面又過於理論,折騰起來真是生不如死。還好現在過去了那個坎,因此多花一些時間整理自己的思路,幫助其他的小夥伴少踩一些坑。文章的結構如下:
- 為什麽要分層?這個問題被好幾個同學質疑過。因此分層的價值還是要說清楚的。
- 分享一下經典的數據分層模型,以及每一層的數據的作用和如何加工得來。
- 分享兩個數據分層的設計,通過這兩個實際的例子來說明每一層該怎麽存數據。
- 給出一些建議,不是最好的,但是可以做參考。
0x01 為什麽要分層
我們對數據進行分層的一個主要原因就是希望在管理數據的時候,能對數據有一個更加清晰的掌控,詳細來講,主要有下面幾個原因:
- 清晰數據結構:每一個數據分層都有它的作用域,這樣我們在使用表的時候能更方便地定位和理解。
- 數據血緣追蹤:簡單來講可以這樣理解,我們最終給業務誠信的是一能直接使用的張業務表,但是它的來源有很多,如果有一張來源表出問題了,我們希望能夠快速準確地定位到問題,並清楚它的危害範圍。
- 減少重復開發:規範數據分層,開發一些通用的中間層數據,能夠減少極大的重復計算。
- 把復雜問題簡單化。講一個復雜的任務分解成多個步驟來完成,每一層只處理單一的步驟,比較簡單和容易理解。而且便於維護數據的準確性,當數據出現問題之後,可以不用修復所有的數據,只需要從有問題的步驟開始修復。
- 屏蔽原始數據的異常。
- 屏蔽業務的影響,不必改一次業務就需要重新接入數據。
數據體系中的各個表的依賴就像是電線的流向一樣,我們都希望它是規整、流向清晰、便於管理的,如下圖:
但是,最終的結果大多卻是依賴復雜、層級混亂,想梳理清楚一張表的聲稱途徑會比較困難,如下圖:
0x02 怎樣分層
一、理論
我們從理論上來做一個抽象,可以把數據倉庫分為下面三個層,即:數據運營層、數據倉庫層和數據產品層。
- ODS 全稱是 Operational Data Store,操作數據存儲.“面向主題的”,數據運營層,也叫ODS層,是最接近數據源中數據的一層,數據源中的數據,經過抽取、洗凈、傳輸,也就說傳說中的 ETL 之後,裝入本層。本層的數據,總體上大多是按照源頭業務系統的分類方式而分類的。但是,這一層面的數據卻不等同於原始數據。在源數據裝入這一層時,要進行諸如去噪(例如有一條數據中人的年齡是 300 歲,這種屬於異常數據,就需要提前做一些處理)、去重(例如在個人資料表中,同一 ID 卻有兩條重復數據,在接入的時候需要做一步去重)、字段命名規範等一系列操作。
- 數據倉庫層(DW),是數據倉庫的主體.在這裏,從 ODS 層中獲得的數據按照主題建立各種數據模型。這一層和維度建模會有比較深的聯系,可以多參考一下前面的幾篇文章。
- 數據產品層(APP),這一層是提供為數據產品使用的結果數據
在這裏,主要是提供給數據產品和數據分析使用的數據,一般會存放在 ES、Mysql 等系統中供線上系統使用,也可能會存在 Hive 或者 Druid 中供數據分析和數據挖掘使用。
如我們經常說的報表數據,或者說那種大寬表,一般就放在這裏。
二、技術實踐
這三層技術劃分,相對來說比較粗粒度,後面我們會專門細分一下。在此之前,先聊一下每一層的數據一般都是怎麽流向的。這裏僅僅簡單介紹幾個常用的工具,側重中開源界主流。
1. 數據來源層→ ODS層
這裏其實就是我們現在大數據技術發揮作用的一個主要戰場。 我們的數據主要會有兩個大的來源:
業務庫,這裏經常會使用 Sqoop 來抽取,比如我們每天定時抽取一次。在實時方面,可以考慮用 Canal 監聽 Mysql 的 Binlog,實時接入即可。
埋點日誌,線上系統會打入各種日誌,這些日誌一般以文件的形式保存,我們可以選擇用 Flume 定時抽取,也可以用用 Spark Streaming 或者 Storm 來實時接入,當然,Kafka 也會是一個關鍵的角色。
其它數據源會比較多樣性,這和具體的業務相關,不再贅述。
註意: 在這層,理應不是簡單的數據接入,而是要考慮一定的數據清洗,比如異常字段的處理、字段命名規範化、時間字段的統一等,一般這些很容易會被忽略,但是卻至關重要。特別是後期我們做各種特征自動生成的時候,會十分有用。後續會有文章來分享。
2. ODS、DW → App層
這裏面也主要分兩種類型:
- 每日定時任務型:比如我們典型的日計算任務,每天淩晨算前一天的數據,早上起來看報表。 這種任務經常使用 Hive、Spark 或者生擼 MR 程序來計算,最終結果寫入 Hive、Hbase、Mysql、Es 或者 Redis 中。
- 實時數據:這部分主要是各種實時的系統使用,比如我們的實時推薦、實時用戶畫像,一般我們會用 Spark Streaming、Storm 或者 Flink 來計算,最後會落入 Es、Hbase 或者 Redis 中。
0x03 舉個例子
網上的例子很多,就不列了,只舉個筆者早期參與設計的數據分層例子。分析一下當初的想法,以及這種設計的缺陷。上原圖和內容。
當初的設計總共分了 6 層,其中去掉元數據後,還有5層。下面分析一下當初的一個設計思路。
緩沖層(buffer)
- 概念:又稱為接口層(stage),用於存儲每天的增量數據和變更數據,如Canal接收的業務變更日誌。
- 數據生成方式:直接從kafka接收源數據,需要業務表每天生成update,delete,inseret數據,只生成insert數據的業務表,數據直接入明細層
- 討論方案:只把canal日誌直接入緩沖層,如果其它有拉鏈數據的業務,也入緩沖層。
- 日誌存儲方式:使用impala外表,parquet文件格式,方便需要MR處理的數據讀取。
- 日誌刪除方式:長久存儲,可只存儲最近幾天的數據。討論方案:直接長久存儲
- 表schema:一般按天創建分區
- 庫與表命名。庫名:buffer,表名:初步考慮格式為:buffer日期業務表名,待定。
明細層(ODS, Operational Data Store,DWD: data warehouse detail)
- 概念:是數據倉庫的細節數據層,是對STAGE層數據進行沈澱,減少了抽取的復雜性,同時ODS/DWD的信息模型組織主要遵循企業業務事務處理的形式,將各個專業數據進行集中,明細層跟stage層的粒度一致,屬於分析的公共資源
- 數據生成方式:部分數據直接來自kafka,部分數據為接口層數據與歷史數據合成。
canal日誌合成數據的方式待研究。
- 討論方案:canal數據的合成方式為:每天把明細層的前天全量數據和昨天新數據合成一個新的數據表,覆蓋舊表。同時使用歷史鏡像,按周/按月/按年 存儲一個歷史鏡像到新表。
- 日誌存儲方式:直接數據使用impala外表,parquet文件格式,canal合成數據為二次生成數據,建議使用內表,下面幾層都是從impala生成的數據,建議都用內表+靜態/動態分區。
- 日誌刪除方式:長久存儲。
- 表schema:一般按天創建分區,沒有時間概念的按具體業務選擇分區字段。
- 庫與表命名。庫名:ods,表名:初步考慮格式為ods日期業務表名,待定。
- 舊數據更新方式:直接覆蓋
輕度匯總層(MID或DWB, data warehouse basis)
- 概念:輕度匯總層數據倉庫中DWD層和DM層之間的一個過渡層次,是對DWD層的生產數據進行輕度綜合和匯總統計(可以把復雜的清洗,處理包含,如根據PV日誌生成的會話數據)。輕度綜合層與DWD的主要區別在於二者的應用領域不同,DWD的數據來源於生產型系統,並未滿意一些不可預見的需求而進行沈澱;輕度綜合層則面向分析型應用進行細粒度的統計和沈澱
- 數據生成方式:由明細層按照一定的業務需求生成輕度匯總表。明細層需要復雜清洗的數據和需要MR處理的數據也經過處理後接入到輕度匯總層。
- 日誌存儲方式:內表,parquet文件格式。
- 日誌刪除方式:長久存儲。
- 表schema:一般按天創建分區,沒有時間概念的按具體業務選擇分區字段。
- 庫與表命名。庫名:dwb,表名:初步考慮格式為:dwb日期業務表名,待定。
- 舊數據更新方式:直接覆蓋
主題層(DM,data market或DWS, data warehouse service)
- 概念:又稱數據集市或寬表。按照業務劃分,如流量、訂單、用戶等,生成字段比較多的寬表,用於提供後續的業務查詢,OLAP分析,數據分發等。
- 數據生成方式:由輕度匯總層和明細層數據計算生成。
- 日誌存儲方式:使用impala內表,parquet文件格式。
- 日誌刪除方式:長久存儲。
- 表schema:一般按天創建分區,沒有時間概念的按具體業務選擇分區字段。
- 庫與表命名。庫名:dm,表名:初步考慮格式為:dm日期業務表名,待定。
- 舊數據更新方式:直接覆蓋
應用層(App)
- 概念:應用層是根據業務需要,由前面三層數據統計而出的結果,可以直接提供查詢展現,或導入至Mysql中使用。
- 數據生成方式:由明細層、輕度匯總層,數據集市層生成,一般要求數據主要來源於集市層。
- 日誌存儲方式:使用impala內表,parquet文件格式。
- 日誌刪除方式:長久存儲。
- 表schema:一般按天創建分區,沒有時間概念的按具體業務選擇分區字段。
- 庫與表命名。庫名:暫定apl,另外根據業務不同,不限定一定要一個庫。
- 舊數據更新方式:直接覆蓋。
0x04 如何更優雅一些
前面提到的一種設計其實相對來講已經很詳細了,但是可能層次會有一點多,而且在區分一張表到底該存放在什麽位置的時候可能還有不小的疑惑。我們在這一章裏再設計一套數據倉庫的分層,同時在前面的基礎上加上維表和一些臨時表的考慮,來讓我們的方案更優雅一些。
下圖,做了一些小的改動,我們去掉了上一節的Buffer層,把數據集市層和輕度匯總層放在同一個層級上,同時獨立出來了維表和臨時表。
這裏解釋一下DWS、DWD、DIM和TMP的作用。
- DWS:輕度匯總層,從ODS層中對用戶的行為做一個初步的匯總,抽象出來一些通用的維度:時間、ip、id,並根據這些維度做一些統計值,比如用戶每個時間段在不同登錄ip購買的商品數等。這裏做一層輕度的匯總會讓計算更加的高效,在此基礎上如果計算僅7天、30天、90天的行為的話會快很多。我們希望80%的業務都能通過我們的DWS層計算,而不是ODS。
- DWD:這一層主要解決一些數據質量問題和數據的完整度問題。比如用戶的資料信息來自於很多不同表,而且經常出現延遲丟數據等問題,為了方便各個使用方更好的使用數據,我們可以在這一層做一個屏蔽。
- DIM:這一層比較單純,舉個例子就明白,比如國家代碼和國家名、地理位置、中文名、國旗圖片等信息就存在DIM層中。
- TMP:每一層的計算都會有很多臨時表,專設一個DWTMP層來存儲我們數據倉庫的臨時表。
0x05 問答
有朋友問了一些問題,有一些之前的確沒講清楚,補到這裏。
問答一: dws 和 dwd 的關系
問:dws 和dwd 是並行而不是先後順序?
答:並行的,dw 層
問:那其實對於同一個數據,這兩個過程是串行的?
答:dws 會做匯總,dwd 和 ods 的粒度相同,這兩層之間也沒有依賴的關系
問:對呀,那這樣 dws 裏面的匯總沒有經過數據質量和完整度的處理,或者單獨做了這種質量相關的處理,為什麽不在 dwd 之上再做匯總呢?我的疑問其實就是,dws的輕度匯總數據結果,有沒有做數據質量的處理?
答:ods 直接到 dws 就好,沒必要過 dwd,我舉個例子,你的瀏覽商品行為,我做一層輕度匯總,就直接放在 dws 了。但是你的資料表,要從好多表湊成一份,我們從四五份個人資料表中湊出來了一份完整的資料表放在了 dwd 中。然後在 app 層,我們要出一張畫像表,包含用戶資料和用戶近一年的行為,我們就直接從dwd中拿資料, 然後再在 dws 的基礎上做一層統計,就成一個app表了。當然,這不是絕對,dws 和 dwd 有沒有依賴關系主要看有沒有這種需求。
問答二: ods 和 dwd 的區別
問:還是不太明白 ods 和 dwd 層的區別,有了 ods 層後感覺 dwd 沒有什麽用了。
答:嗯,我是這樣理解的,站在一個理想的角度來講,如果 ods 層的數據就非常規整,基本能滿足我們絕大部分的需求,這當然是好的,這時候 dwd 層其實也沒太大必要。 但是現實中接觸的情況是 ods 層的數據很難保證質量,畢竟數據的來源多種多樣,推送方也會有自己的推送邏輯,在這種情況下,我們就需要通過額外的一層 dwd 來屏蔽一些底層的差異。
問:我大概明白了,是不是說 dwd 主要是對 ods 層做一些數據清洗和規範化的操作,dws 主要是對 ods 層數據做一些輕度的匯總?
答:對的,可以大致這樣理解。
問答三:app 層是幹什麽的?
問:感覺數據集市層是不是沒地方放了,各個業務的數據集市表是應該在 dwd 還是在 app?
答:這個問題不太好回答,我感覺主要就是明確一下數據集市層是幹什麽的,如果你的數據集市層放的就是一些可以供業務方使用的寬表表,放在 app 層就行。如果你說的數據集市層是一個比較泛一點的概念,那麽其實 dws、dwd、app 這些合起來都算是數據集市的內容。
問:那存到 Redis、ES 中的數據算是 app層嗎?
答:算是的,我個人的理解,app 層主要存放一些相對成熟的表,能供業務側使用的。這些表可以在 Hive 中,也可以是從 Hive 導入 Redis 或者 ES 這種查詢性能比較好的系統中。
0xFF 總結
數據分層是數據倉庫非常重要的一個環節,它決定的不僅僅是一個層次的問題,還直接影響到血緣分析、特征自動生成、元數據管理等一系列功能的建設。因此適於盡早考慮。
另外,每一層的名字不必太過在意,自己按照喜好就好。
數據倉庫--數據分層