Hadoop單機模式配置和官方案例
Hadoop單機模式
1.環境準備
0.安裝jdk(自行安裝)
1.配置hadoop環境變數
- 下載hadoop的Linux的安裝包,並解壓
- 複製hadoop的解壓後的路徑,並配置環境變數
- 重新編譯環境變數(只對當前使用者有效)
配置環境變數
#HADOOP_HOME
export HADOOP_HOME=/opt/moudle/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
重新編譯環境變數
source /etc/profile
2.修改hadoop-env.sh
修改25行的JDK的環境,為後續的分散式做準備,當前單機模式不修改也不會有影響
vim /opt/moudle/hadoop-2.7.2/etc/hadoop/hadoop-env.sh
設定vim顯示行號
:set number
19 # The only required environment variable is JAVA_HOME. All others are
20 # optional. When running a distributed configuration it is best to
21 # set JAVA_HOME in this file, so that it is correctly defined on
22 # remote nodes.
23
24 # The java implementation to use.
25 export JAVA_HOME=${JAVA_HOME}
25 export JAVA_HOME=JDK的絕對路徑
2.執行官方提供的簡單案例
1.grep案例
匹配輸入資料夾下。符合規則的內容
準備輸入資料夾
- 在/opt/moudle/hadoop-2.7.2資料夾下建立 input資料夾
- 複製/opt/moudle/hadoop-2.7.2/etc/hadoop 資料夾下的*.xml到 input資料夾下
cp etc/hadoop/*.xml input/
在hadoop的根目錄執行命令
#'dfs[a-z.]+d'為匹配規則 hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input/ output 'dfs[a-z.]+d'
注意:output為輸出資料夾,一定不能存在,執行命令後可以參看 output資料夾下的執行結果
2.wordcount案例
統計字元出現次數
準備輸入文夾
在/opt/moudle/hadoop-2.7.2資料夾下建立wordcount資料夾,並在資料夾下建立wc.input檔案,內容如下:
wc wc wc 12 32 34 count count
在hadoop的根目錄執行命令
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount wordcount/ wcoutput
執行結果
[daxiong@hadoop101 wcoutput]$ cat part-r-00000
12 1
32 1
34 1
count 2
wc 3
相關推薦
Hadoop單機模式配置和官方案例
Hadoop單機模式 1.環境準備 0.安裝jdk(自行安裝) 1.配置hadoop環境變數 下載hadoop的Linux的安裝包,並解壓 複製hadoop的解壓後的路徑
Hadoop本地執行模式下執行官方案例(Grep和WordCount)
官方Grep案例 #1,在hadoop-2.7.2檔案下建立input資料夾 [[email protected] hadoop-2.7.2]$ mkdir input [[email protected] hadoop-2.7.2]$ ll 總用量 56 drwx
Hadoop單機模式安裝-(3)安裝和配置Hadoop
網路上關於如何單機模式安裝Hadoop的文章很多,按照其步驟走下來多數都失敗,按照其操作彎路走過了不少但終究還是把問題都解決了,所以順便自己詳細記錄下完整的安裝過程。 此篇主要介紹在Ubuntu安裝完畢後,如何進行Hadoop的安裝和配置。 我所記錄的筆記適合沒有Linux基礎的朋友跟我一起操作,同時歡迎
hadoop單機模式的構建、配置與執行測試步驟(ubuntu14.04)
PS:全程以root的角色進行配置安裝 本篇文章的前期準備工作可以看我之前的部落格連結: 參照上面兩篇文章,設定好機器環境和準備好檔案包,這篇文章是以下載好相應的jdk、hadoop檔案的
spark學習1——配置hadoop 單機模式並執行WordCount例項(ubuntu14.04 & hadoop 2.6.0)
1. 安裝SSH hadoop是採用SSH進行通訊的 ,此時要設定密碼為空,即不需要密碼登陸,免去每次登陸時都要輸入密碼,當叢集較大時該步驟顯得尤為重要。 $ sudo apt-get install ssh 安裝完成後啟動服務: $ /etc/init.
hadoop單機模式connect refused問題
所以說這裡一定要寫一下了,由於之前偷懶,在沒有執行hadoop自帶的jar包的情況下就配置了hadoop的core-site.xml和hdfs-site.xml導致單機模式執行hadoop就會出現connection refused的錯誤,因此將以前配置的內容刪除就可以了
Dubbo叢集配置和官方文件
叢集配置: https://blog.csdn.net/zh520qx/article/details/63679908 https://www.cnblogs.com/hd3013779515/p/6896942.html https://www.cnblogs.com/leeSmall/p/7587
hadoop集群配置和在windows系統上運用java操作hdfs
sdn 自帶 aux mkdir del 服務 services export rop 安裝 配置 概念 hadoop常用shell命令 使用java操作hadoop 本文介紹hadoop集群配置和在windows系統上運用java操作hdfs 安裝 http:
Hadoop單機模式安裝-(1)安裝設定虛擬環境
網路上關於如何單機模式安裝Hadoop的文章很多,按照其步驟走下來多數都失敗,按照其操作彎路走過了不少但終究還是把問題都解決了,所以順便自己詳細記錄下完整的安裝過程。 此篇主要介紹如何在Windows環境下設定虛擬機器環境以及一些準備工作,熟悉WMware的朋友可以略過。 我所記錄的筆記適合沒有Linux
Hadoop單機模式安裝-(2)安裝Ubuntu虛擬機器
網路上關於如何單機模式安裝Hadoop的文章很多,按照其步驟走下來多數都失敗,按照其操作彎路走過了不少但終究還是把問題都解決了,所以順便自己詳細記錄下完整的安裝過程。 此篇主要介紹在虛擬機器設定完畢後,如何進行Ubuntu的安裝。 我所記錄的筆記適合沒有Linux基礎的朋友跟我一起操作,同時歡迎高手參觀指
[喵咪大資料]Hadoop單機模式
千里之行始於足下,學習大資料我們首先就要先接觸Hadoop,上節介紹到Hadoop分為Hadoop-HDFS,Hadoop-YARN,Hadoop-Mapreduce組成,分別負責分散式檔案儲存,任務排程,計算處理,本機我們在單機模式下把Hadoop執行起來
hadoop(單機)安裝配置
1.安裝JDK yum -y install java-1.8.0-openjdk* 2.在相應目錄下安裝hadoop wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop
Hadoop單機模式
hadoop版本:hadoop-2.0.0-cdh4.2.0.tar 進入hadoop目錄,開啟etc目錄下到hadoop-env.sh,新增以下資訊: #author ylchou #2013-06-23 export JAVA_HOME=/usr/local/bin/j
一、Hadoop2.6.0 單機模式配置
一、在Ubuntu下建立hadoop組和hadoop使用者 增加hadoop使用者組,同時在該組裡增加hadoop使用者,後續在涉及到hadoop操作時,我們使用該使用者。 1、建立hadoop使用者組 2、建立hadoop使用者
hadoop單機安裝配置
1.安裝jdk 在java官網 yum 安裝 yum install java-1.7.0-openjdk* -y 2.安裝hadoop 修改ect的配置檔案 yarn-site.xml <!--告訴NodeManager
Hadoop 和 Hbase 的安裝與配置 (單機模式)
(一定要看最後我趟過的坑,如果安裝過程有問題,可參考最後我列出的問題及解決方法) 下載Hadoop安裝包 這裡安裝版本:hadoop-1.0.4.tar.gz 在安裝Hadoop之前,伺服器上一定要有安裝的jdk jdk安裝方式之一:在官網上下載Linux下的rpm
Hadoop-2.8.0實踐——單機模式和偽分佈模式
一、安裝 1.1 環境 系統:Ubuntu 16.04 LTS 軟體: Java 1.7及以上 ssh 和 sshd 安裝ssh: $ sudo apt-get install ssh $ sudo apt-get install rsync 1.2
hadoop初識之三:搭建hadoop環境(配置HDFS,Yarn及mapreduce 執行在yarn)上及三種執行模式(本地模式,偽分散式和分散式介)
--===============安裝jdk(解壓版)================== --root 使用者登入 --建立檔案層級目錄 /opt下分別 建 modules/softwares/datas/tools 資料夾 --檢視是否安裝jdk rpm -
Hadoop:Hadoop單機偽分散式的安裝和配置
因為lz的linux系統已經安裝好了很多開發環境,可能下面的步驟有遺漏。之前是在docker中配置的hadoop單機偽分散式[ ],並且在docker只有root使用者,所有沒有許可權問題存在。這裡直接在linux下配置,主要是為了能用netbeans ide除錯had
[Nutch]Hadoop單機偽分佈模式的配置
在之前的博文中,我們一直在使用Nutch的local模式,那麼Nutch的Deploy模式該怎麼使用呢?首先我們來配置hadoop,為使用Nutch的deploy模式做準備。 1. 下載hadoop 在workspace目錄使用如下命令下載had