hadoop安裝配置中的一些問題
1.安裝配置java時
程式 ‘java’ 已包含在下列軟體包中:
* default-jre
* gcj-4.8-jre-headless
* gcj-4.9-jre-headless
* openjdk-7-jre-headless
* openjdk-6-jre-headless
* openjdk-8-jre-headless
請嘗試:apt-get install <選定的軟體包>
解決方法:
sudo update-alternatives –install /usr/bin/javac javac /usr/local/java/jdk1.7.0_80/bin/javac
sudo update-alternatives –install /usr/bin/java java /usr/local/java/jdk1.7.0_80/bin/java
加粗的是你自己java安裝的路徑
發現自己的原因是配置etc/profile後忘記使用source命令執行了。
2.ssh無密碼登陸,兩臺機器
http://www.linuxidc.com/Linux/2012-09/70116.htm
若是pc1連線pc2的虛擬機器,虛擬機器要使用橋接模式才可以ping。
3.hive的安裝
參考:http://blog.csdn.net/x_i_y_u_e/article/details/46845609
4.hadoop叢集開啟後datanode沒有啟動
參考:http://blog.csdn.net/asia_kobe/article/details/50902812
5.eclipse連線HDFS。
下載hadoop-eclipse-plugin-xxx.jar這個包,放入eclipse目錄下的plugin資料夾中,重啟之後就可以在配置中看到了。具體配置可以參考:http://www.jianshu.com/p/0e8001b29509
ps:unbuntu16.04和eclipse mars有點不相容,而最新版的eclipse neno對hadoop-eclipse-plugin-2.7.3.jar沒反應,推薦下載eclipse luna。