小白學習大數據測試之hadoop再次探索
雖然通過《小白學習大數據測試之hadoop初探》以及把hadoop的基本核心說明白了,但是似乎對於小白來說還是會有點懵逼。。。。那麽這次我們就在來看看
大數據粗暴理解
大數據甭管什麽,簡單粗暴的理解為大!大!大!對,你沒看錯,不管什麽都是大就對了,哈哈哈哈
大數據應用的功能抽象出來基本就是:數據采集、數據存儲、數據處理(過濾、拆分、聚合)、數據分析、數據應用。說白了就是對從各處采集的數據經過一系列的處理後給出分析,然後應用到不同的場景裏或者提供數據報表等。
hadoop架構演變
此處不多說,很明顯是做了拆分,集群的資源管理由yarn完成,ta運行在hdfs之上,而MapReduce則運行在yarn之上(後續在搭建環境的時候需要進行對應配置文件的修改)
大數據測試的難點
需要學習大數據的相關知識和技術(其實我內心是拒絕的。。。好麻煩),比如:hadoop、hbase(分布式開源數據庫)、hive(數據倉庫)、kafka(分布式發布訂閱消息系統)、spark(大數據處理引擎)、yarn、solr(企業級搜索應用)、zookeeper(分布式應用程序協調服務)、sqoop、flume(分布式日誌處理系統)等等。。。。。(別問我這是什麽,我只想靜靜啊~)
需要熟悉大數據處理的邏輯(其實就是上面說的那個過程)
需要熟練掌握代碼,嗯,你沒看錯,是必須的,不管是python還是java你必須會。因為這裏100%會用到自動化測試的技術,不會代碼何談自動化?
測試思維的變化。傳統測試中很多bug是可以通過固定的步驟重現的,但大數據測試裏很多bug很難重現的,所以必須要調整自己的思維,提前切入測試並利用多技術手段盡可能的發現bug
好了,腦細胞已經死了很多了,不想多說了,洗洗碎了~別忘了關註轉發下,小編好有動力繼續~
小白學習大數據測試之hadoop再次探索