Hadoop大數據開發學習路線圖階段一
作為開發人員掌握Hadoop及其生態內框架的開發技術,就是進入大數據領域的必經之路。
下面詳細介紹一下,學習Hadoop開發技術的路線圖。
Hadoop本身是用java開發的,所以對java的支持性非常好,但也可以使用其他語言。
下面的技術路線側重數據挖掘方向,因為Python開發效率較高所以我們使用Python來進行任務。
因為Hadoop是運行在Linux系統上的,所以還需要掌握Linux的知識。
第一階段:Hadoop生態架構技術
語言基礎
Java:掌握javase知識,多理解和實踐在Java虛擬機的內存管理、以及多線程、線程池、設計模式、並行化就可以,不需要深入掌握。
Linux:系統安裝(命令行界面和圖形界面)、基本命令、網絡配置、Vim編輯器、進程管理、Shell腳本、虛擬機的菜單熟悉等等。
Python:基礎語法,數據結構,函數,條件判斷,循環等基礎知識。
環境準備
這裏介紹在windows電腦搭建完全分布式,1主2從。
VMware虛擬機、Linux系統(Centos6.5)、Hadoop安裝包,這裏準備好Hadoop完全分布式集群環境。
MapReduce
MapReduce分布式離線計算框架,是Hadoop核心編程模型。主要適用於大批量的集群任務,由於是批量執行,故時效性偏低。
HDFS1.0/2.0
Hadoop分布式文件系統(HDFS)是一個高度容錯性的系統,適合部署在廉價的機器上。HDFS能提供高吞吐量的數據訪問,非常適合大規模數據集上的應用。
Yarn(Hadoop2.0)
前期了解即可,Yarn是一個資源調度平臺,主要負責給任務分配資源。Yarn是一個公共的資源調度平臺,所有滿足條件的框架都可以使用Yarn來進行資源調度。
Hive
Hive是一個數據倉庫,所有的數據都是存儲在HDFS上的。使用Hive主要是寫Hql,非常類似於Mysql數據庫的Sql。其實Hive在執行Hql,底層在執行的時候還是執行的MapRedce程序。
Spark
Spark 是專為大規模數據處理而設計的快速通用的計算引擎,其是基於內存的叠代式計算。Spark 保留了MapReduce 的優點,而且在時效性上有了很大提高。
Spark Streaming
Spark Streaming是實時處理框架,數據是一批一批的處理。
Spark Hive
基於Spark的快速Sql檢索。Spark作為Hive的計算引擎,將Hive的查詢作為Spark的任務提交到Spark集群上進行計算,可以提高Hive查詢的性能。
Storm
Storm是一個實時計算框架,和MR的區別就是,MR是對離線的海量數據進行處理,而Storm是對實時新增的每一條數據進行處理,是一條一條的處理,可以保證數據處理的時效性。
Zookeeper
Zookeeper是很多大數據框架的基礎,它是集群的管理者。監視著集群中各個節點的狀態根據節點提交的反饋進行下一步合理操作。
最終,將簡單易用的接口和性能高效、功能穩定的系統提供給用戶
Hbase
Hbase是一個Nosql 數據庫,是一個Key-Value類型的數據庫,是高可靠、面向列的、可伸縮的、分布式的數據庫。
適用於非結構化的數據存儲,底層的數據存儲在HDFS上。
Kafka
kafka是一個消息中間件,在工作中常用於實時處理的場景中,作為一個中間緩沖層。
Flume
Flume是一個日誌采集工具,常見的就是采集應用產生的日誌文件中的數據,一般有兩個流程。
一個是Flume采集數據存儲到Kafka中,方便Storm或者SparkStreaming進行實時處理。
另一個流程是Flume采集的數據存儲到HDFS上,為了後期使用hadoop或者spark進行離線處理。
Hadoop大數據開發學習路線圖階段一