1. 程式人生 > >linux下hadoop與hive的單機開發配置

linux下hadoop與hive的單機開發配置

今天嘗試在虛擬機器上配置hadoop與hive環境

linux系統為:  CentOS-6.3 64位

jdk版本:jdk-7u25-linux-x64.rpm

hadoop版本: hadoop-1.0.4.tar.gz

hive版本:hive-0.10.0-bin

一  配置相關環境變數

[[email protected] ~]# vi /etc/profile

進入profile檔案,新增如下程式碼

JAVA_HOME=/usr/java/jdk1.7.0_25
JRE_HOME=/usr/java/jdk1.7.0_25/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/jt.jar.$JAVA_HOME/lib/tools.jar.$JRE_HOME/li
b
export JAVA_HOME JRE_HOME PATH CLASSPATH

source在當前shell環境下執行上述檔案 (source常用來執行重新執行該修改過的初始化檔案)

[[email protected] ~]# source /etc/profile
   

   驗證

[[email protected] ~]# java -version
java version "1.7.0_25"
裝完Java之後我們還要確認有沒有安裝sshd服務和ssh客戶端工具,預設ssh已經安裝,因此我們只要再安裝一下rsync。
輸入命令: yum install rsync

再確認可以用ssh免密碼登入localhost
輸入ssh localhost命令: ssh localhost

至此,第一步大功告成!

二 配置hadoop

先把hdoop的包放在/opt/hadoop資料夾下(linux中/opt資料夾常用來放第三方的安裝軟體)

解壓hadoop

[[email protected] ~]# cd /opt
[[email protected] opt]# cd hadoop/
[[email protected] hadoop]# ls
hadoop-1.0.4.tar.gz
[[email protected] hadoop]# tar zxf hadoop-1.0.4.tar.gz 

注:

tar zxf hadoop-1.0.4.tar.gz 
可有四個引數
x : 從 tar 包中把檔案提取出來
z : 表示 tar 包是被 gzip 壓縮過的,所以解壓時需要用 gunzip 解壓
v : 顯示詳細資訊
f xxx.tar.gz : 指定被處理的檔案是 xxx.tar.gz
進入解壓後的資料夾,找到conf/hadoop-env.sh檔案中

找到# export JAVA_HOME=/usr/lib/j2sdk1.5-sun 把前面的註釋符號#去掉,等號後面的路徑改為你的JDK所在的目錄,如你的java可執行檔案在/usr/bin/java,則寫成(不要包含bin):
export JAVA_HOME=/usr

注意:如果不知道java在什麼地方請用whereis java查詢

# The java implementation to use.  Required. 
 export JAVA_HOME=/usr
  b.配置hadoop的單機叢集模式(偽叢集模式)
      修改conf/core-site.xml,內容改為:
      <configuration>
      <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:9000</value>
      </property>
      </configuration>
    修改conf/hdfs-site.xml,內容改為:
    <configuration>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    </configuration>
   修改conf/mapred-site.xml,內容改為:
   <configuration>
   <property>
   <name>mapred.job.tracker</name>
   <value>localhost:9001</value>
   </property>
   </configuration>

c 配置hadoop環境變數

在/etc/profile中新增

export HADOOP_HOME=/opt/hadoop/hadoop-1.0.4
export HADOOP_CONF_DIR=/opt/hadoop/hadoop-1.0.4/conf
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin
[[email protected] usr]# source /etc/profile

d 初始化hadoop Namenode
[[email protected] hadoop-1.0.4]# bin/hadoop namenode -format
e 啟動執行hadoop

執行:bin/start-all.sh
等到所有程序都執行後繼續
注意:可以用jps命令看一下啟動了哪些java程序:一般有以下幾個程序TaskTracker,SecondaryNameNode,JobTracker,Jps,NameNode,DataNode

[[email protected] hadoop-1.0.4]# bin/start-all.sh 
starting namenode, logging to /opt/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-root-namenode-localhost.out
[email protected]'s password: 
localhost: starting datanode, logging to /opt/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-root-datanode-localhost.out
[email protected]'s password: 
localhost: starting secondarynamenode, logging to /opt/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-root-secondarynamenode-localhost.out
starting jobtracker, logging to /opt/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-root-jobtracker-localhost.out
[email protected]'s password: 
localhost: starting tasktracker, logging to /opt/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-root-tasktracker-localhost.out
[[email protected] hadoop-1.0.4]# jps
6160 SecondaryNameNode
6048 DataNode
6337 TaskTracker
5922 NameNode
6472 Jps
6218 JobTracker
至此,hadoop安裝成功

三 配置hive

一、在HDFS中建立hive要用的目錄
輸入命令:
bin/hadoop fs -mkdir /tmp
bin/hadoop fs -mkdir /user/hive/warehouse
bin/hadoop fs -chmod g+w /tmp
bin/hadoop fs -chmod g+w /user/hive/warehouse
二、解壓Hive
tar zxf hive-0.8.0-bin.tar.gz
cd hive-0.8.0-bin
三、執行Hive
bin/hive

hive> show tables;
OK
Time taken: 10.612 seconds
hive> 
四 將hive/bin路徑新增到/etc/profile的$PATH中

 $PATH=.:/opt/hadoop/hive-0.10.0-bin/bin

這樣在使用者根目錄也可以直接hive

[[email protected] ~]# hive
Logging initialized using configuration in jar:file:/opt/hadoop/hive-0.10.0-bin/lib/hive-common-0.10.0.jar!/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201308220430_1536743314.txt
hive> 

ps:設定hadoop環境變數後 每次執行 hadoop 命令都會警告:

[[email protected] hadoop]# hadoop
Warning: $HADOOP_HOME is deprecated.
雖然不影響其他的,但是感覺很不爽

google後得知


Hadoop本身對HADOOP_HOME做了判斷,具體在bin/hadoop和bin/hadoop-config.sh裡。在hadoop-config.sh裡有如下的配置:
Shell程式碼
if [ "$HADOOP_HOME_WARN_SUPPRESS" = "" ] && [ "$HADOOP_HOME" != "" ]; then
echo "Warning: \$HADOOP_HOME is deprecated." 1>&2
echo 1>&2
fi
對於這個警告問題,解決方法如下:
1.註釋掉hadoop-config.sh裡的上面給出的這段if fi配置(不推薦)
2.在當前使用者home/.bash_profile裡增加一個環境變數:
export HADOOP_HOME_WARN_SUPPRESS=1
注:修改完.bash_profile後需要執行source操作使其生效

摘自http://chenzhou123520.iteye.com/blog/1826002

對於第二種方法找不到root使用者的.bash_profile檔案,只能找到其他非根使用者的(設定了無效)

後又google到:

新增   export HADOOP_HOME_WARN_SUPPRESS=TRUE 到 hadoop-env.sh  中

然後source 問題解決

[[email protected] ~]# hadoop
Usage: hadoop [--config confdir] COMMAND
where COMMAND is one of:
機理不明

參考連結:

http://wenku.baidu.com/view/ab7ca606f12d2af90242e68e.html

http://blog.csdn.net/shela_yin/article/details/7095401


相關推薦

linuxhadoophive單機開發配置

今天嘗試在虛擬機器上配置hadoop與hive環境 linux系統為:  CentOS-6.3 64位 jdk版本:jdk-7u25-linux-x64.rpm hadoop版本: hadoop-1.0.4.tar.gz hive版本:hive-0.10.0-bin

python開發之virtualenvvirtualenvwrapper(linux安裝配置)

在使用python開發過程中,會經常碰到不同的工程依賴不同版本的庫的問題,所以我們需要對於不同的工程使用不同的虛擬環境來保持開發環境以及宿主環境的清潔 ----------virtualenv 一個可以幫助我們管理不同python環境的好工具,它可以在系統中建立多個不同並且相互不干擾的虛擬環境、  

Linux安裝配置Nginx

下載 訪問 準備 cep ssi config configure 你會 inpu 一、準備 Nginx版本:nginx-1.7.7.tar.gz 請自行到官網下載對應的版本。 二、步驟 ?在Linux新建一個queenLove用戶 [[email prot

(十二)linuxhadoop安裝配置

-i host 配置文件 localhost mapreduce stat reboot app table 1.準備Linux環境 1.1關閉防火墻 #查看防火墻狀態 service iptables status #關閉防火墻 service iptables

linux安裝配置Redis

修改 密碼 ted 路徑 設置密碼 fix 安裝與配置 安裝 bsp 1.安裝 (1)獲取源代碼   wget http://download.redis.io/releases/redis-4.0.8.tar.gz (2)解壓   tar xzvf redis-4.0.8

LinuxNginxTomcat最簡單的均衡負載配置

編輯Nginx的conf目錄下nginx.conf 主要加入一個模組,下面配置的 upstream localhost 中的 localhost 與 location / { ... }  裡面的 proxy_pass    

【Docker】在Linux安裝配置Docker環境

0x00 前言 沒有太多說的,這個可能也到處都有…… 每個人的方法大概也大同小異? 主要是自己第一次接觸docker,就當作簡單的做一個記錄與總結吧。 (注意:本篇和以前的環境配置不同,遇到的問題過多,而且最終不是自己獨立完成 (故主要著眼於出現問題的記錄與過程

Linux的硬體驅動——USB裝置配置以及開發

前言USB是英文"Universal Serial Bus"的縮寫,意為"通用序列匯流排"。是由Compaq(康柏)、DEC、IBM、Intel、NEC、微軟以及Northern Telecom(北方電訊)等公司於1994年11月共同提出的,主要目的就是為了解決介面標準太多的弊端。USB使用一個4針插頭作為標

linuxip閘道器不在同一段配置的方法

當想要設定的閘道器與主機ip地址不同時,用route add default gw  xx.xxx.xx.xx是不成功的,比如我主機ip地址為:192.168.1.3,想要設定的閘道器為192.168.2.1。 [email protected]:/etc/net

Linux安裝配置snmp服務

一、安裝snmp服務 1、檢查系統是否已經安裝snmp的rpm包  以下是安裝snmp服務需要的rpm包: libsensors3-2.10.6-55.el5.i386.rpm lm_sensors-2.10.6-55.el5.i386.rpm net-snmp-libs-5.3.2.2-5.el5.i38

linuxjdktomcat的安裝配置

denied local pan ava png art class catalina 配置 Linux中jdk與tomcat的安裝與配置 1、搭建環境:   (1)Linux環境:CentOS6.1   (2)jdk-1.8   (3)tomcat-9.0 2、

Linuxnagios的搭建及相關配置

linux下nagios的搭建及相關配置一、LAMP環境部署1、安裝php 1.安裝yum源 rpm -Uvh http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm rpm -Uvh http://rpm

LinuxL2TP VPN客戶端的配置

linux下xl2tpd客戶端配置系統環境centos6.81,安裝xl2tpd和pppyum -y install xl2tpd ppp2,配置xl2tpd編輯配置文件xl2tpd.confvim /etc/xl2tpd/xl2tpd.conf[lac testvpn] ;testvpn為lac的名稱n

Linux安裝Python3的django並配置mysql作為django默認數據庫(轉載)

make lba del log pri ica www src rim 我的操作系統為centos6.5 1 首先選擇django要使用什麽數據庫。django1.10默認數據庫為sqlite3,本人想使用mysql數據庫,但為了測試方便順便要安裝一下sqlite開發

Intellij idea史上最簡單的教程之Linux安裝破解Intellij idea2017

成功 zxvf java 新建 pre form 旗艦版 lan intel 一、前言 這一節我們介紹在Linux下如何安裝與破解Intellij idea2017。現在有很多公司開發環境都是Linux,所以掌握在Linux環境下使用Idea辦公也是咱們必須得掌握的技能。

linux的DHCP服務器基本配置

linuxlinux下的DHCP服務器基本配置:首先進入網卡配置網卡的IP地址,設置相關的網絡信息配置的網卡信息如下:安裝dhcp軟件包查看dhcp軟件包是否已經安裝進入/etc/dhcp/目錄下,編輯dhcp.conf配置文件語法檢測,檢測配置文件中的語法是否存在語法錯誤重啟dhcp服務,並設置服務為開機自

linuxxampp集成包安裝配置方法

xampp bsp 系統啟動 i686 多說 lin 成功 nload grant 1、查看你linux系統的位數,是32位的還是64位的。使用uname -a命令查看。 顯示有 x86_64則說明你是64位內核, 跑的是64位的系統. i386, i686說明你是32位的

Windows Hadoop的環境變量配置

gravity win log water 5.1 div popu too pmt 一、安裝JDK 1、下載路徑:http://www.oracle.com/technetwork/java/javase/downloads/index.html 2、安裝到C:\Jav

Lenovo DS存儲LinuxISCSI 多路徑映射配置

centos 6 路徑配置 spa numeric 裝包 fail grouping cover 重啟 Lenovo DS存儲Linux下ISCSI 多路徑映射配置Renren 2018-01-17 實驗環境: DS4200存儲,B控制器池劃分一個大小為18G的

linux打包壓縮

包名 大小 方便 文件 nbsp 視頻 查看 more 文本文 歸檔   文檔很多,很亂, 方便使用、查閱、閱讀 已於管理(批量刪除文件) 壓縮 a.txt /etc/passwd 文本文件壓縮後很省空間 aaa.jpeg 壓縮