學習hadoop需要什麼基礎
阿新 • • 發佈:2018-11-14
學習hadoop需要什麼基礎
“學習hadoop需要什麼基礎”這已經不是一個新鮮的話題了,隨便上網搜尋一下就能找出成百上千篇的文章在講學習hadoop需要掌握的基礎。再直接的一點的問題就是——學Hadoop難嗎?用一句特別讓人無語的話回答就是:難不會,會不難!
趁著學校放假的時間,寫了一些hadoop學習分享的文章。剛開始寫的幾篇稍微有點亂,其中有一篇就是在說學習hadoop需要什麼樣基礎的。所謂的難不會,會不難,必然也是建立你現在的基礎之上的。假定你連基礎的計算機基礎都沒有,那可能真的就是“難不會”了。如果你是有一個良好的計算機基礎的,比如,虛擬機器的配置你會、擁有JAVA基礎和Linux操作基礎,那學習hadoop對你來可能就是“會不難”哦!
當你看了很多介紹“學習hadoop需要什麼基礎”的文章後,你一定會得出一個結論,那就是學習hadoop所必須的三個基礎技能:JAVA基礎、Linux基礎、虛擬機器基礎(上面已經說過了)。所有的文章在說完這個三個基礎之後,好像在告訴我們所有人,你只要有這個三個基礎就一定能夠學好hadoop,從此走上人生巔峰••••••其實,也不盡然,只有當你真正接觸了hadoop,你才會發現真正的問題所在。
接觸過hadoop的人都知道,單獨搭建hadoo裡每個組建都需要執行環境、修改配置檔案、測試等過程。如果僅僅是安裝一下執行環境就行了,那你就大錯特錯了,幾乎每個元件都是坑,這些坑幾乎是不可能讓初學者有一個愉快的學習過程的。Hadoop雖然起源於國外,但國內發行版本也蠻多,但是都沒有去解決環境搭建的問題。如果說他們沒有關注到執行環境搭建繁瑣這樣的問題話,我肯定是不相信的。真的不知道是他們現在的技術解決不了這個問題,還是不想去花費時間去解決?
今年3月初的時候,一個做程式開發的朋友給了一個國產發行版DKHadoop,是大快搜索開源的發行版hadoop。這款hadoop版本終於解決了執行環境搭建繁瑣的問題,它將開源社群裡多種常用的元件包括:HDFS,Hbase,Storm,Spark,Flume,Kafka,Mahout,ES等都整合到一個平臺裡,只需簡單的一鍵安裝就能完成,需要呼叫的時候直接呼叫即可,終於讓我覺得不用在像以前拿樣再去安裝除錯等等。
所以,我覺得學習hadoop需要的不僅僅是JAVA、虛擬機器、Linux這三個方面的基礎,選擇的hadoop版本也是很重要。我們學習hadoop的重點是想要去開發一些東西,而不是為了學習執行環境的安裝,這樣會讓人覺得有點本末倒置!
正在學習hadoop或者準備學習hadoop的朋友,個人還是比較推薦DKHadoop這套發行版,畢竟對新手而言算是很友好的了。我在用的是標準本三節點dkhadoop版本(放心,是免費的),雖然是免費的,但許可權都是開放的。所以,對於新手或者個人研究而言已經夠用了。需要dkhadoop安裝包的,可以留言給我,可以打包發你!