Ubuntu16安裝Ambari叢集
安裝Ambari叢集採坑記錄
- 叢集基礎配置
1.我這裡把主機命名為note1,從機note2。配置主從機本地域名 /etc/hosts下新增ip和域名。
2.配置主機ssh免密登入note2。ssh相關配置
3.安裝ntp :apt-get install -y ntp
4.禁用Transparent Huge Page(禁用大記憶體頁面可以提升MR效率)echo never > /sys/kernel/mm/transparent_hugepage/enabled
(以上從機note2已經配置就緒,可在note1中測試下能否登入)
- 伺服器配置
1.將提前下載好的ambari,HDP,HDP-Util統一解壓後放到一個資料夾下。我這裡選擇/opt。另外再將jdk-1.8.tar.gz的包 (1.8的都行) 新增到資料夾中,在後續使用。
2.在/opt目錄下執行python -m SimpleHTTPServer
3.新增一個ambari源,在/etc/apt/sources.list.d/
下新增一個檔案ambari.list。填入一下內容:deb http://${你主機host,我這裡為note1}:8000/ambari/ubuntu16/ Ambari main
地址其實就ambari-server的解壓後的子路徑,用於後續安裝使用。
4.配置獲取公鑰:apt-key adv --recv-keys --keyserver keyserver.ubuntu.com B9733A7A07513CAD
5.執行apt-get update
和apt-get install -y ambari-server
安裝服務。
6.修改配置,安裝完成後預設會生成一個配置檔案/etc/ambari-server/conf/ambari.properties
。修改jdk1.8.url,目標就是第一步我們放入opt下面的檔案。所以我這裡為http://note1:8000/jdk-1.8.tar.gz
了。
7.修改完後我們就可以初始化ambari了,執行ambari-server setup
。這裡我們遇到兩個警告。
一是:WARNING: Before starting Ambari Server, you must copy the MySQL JDBC driver JAR file to /usr/share/java and set property "server.jdbc.driver.path=[path/to/custom_jdbc_driver]" in ambari.properties.
/usr/share/java
,並在ambari.properties中新增server.jdbc.driver.path=/usr/share/java/mysql-connector-java.jar
。
二是:讓我們執行/var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql
這個指令碼,可是我執行後卻又一堆不成功(不曉得是不是這個版本的問題)。於是需要手動修改一下。我們在# USE @schema;
下開始加入自己的邏輯CREATE DATABASE ambari;
其中hive的部分是為後續儲存其源資料準備。修改完另存為,然後再執行指令碼。
CREATE DATABASE hive;
GRANT ALL PRIVILEGES ON ambari.* TO 'ambari'@'%'
IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON hive.* TO 'hive'@'%'
IDENTIFIED BY 'hive';
FLUSH PRIVILEGES;
use ambari;
9.執行ambari-server start
啟動過程也多次出現問題。比如Caused by: java.net.ConnectException: Connection refused (Connection refused)
連線資料庫失敗,這時候檢測資料庫是否能正常連線。我也是發現新裝的mysql要修改mysqld.cnf才能連結成功的。以上是我遇到的部分問題,bug各有不同,就要通過日誌來進行對應的修改了。下面讓我們下配置完成後的正常啟動吧。
- 配置hdp叢集
ambari啟動的預設埠為8080,我們開啟伺服器頁面。賬號密碼:admin
進去後第一步:我們選擇:Launch Install Wizard 。建立一個自己的叢集。
第二部:名字任意。
第三步:Select Stack。這裡我們選擇 HDP2.6 -》Use Local Repository -》Ubuntu16。分別填入自己的url。
http://${主機}:8000/HDP/ubuntu16/2.6.3.0-235/
http://${主機}:8000/HDP-UTILS-1.1.0.21-ubuntu16/
第四步:Target Hosts填入我們的主機和從機hostname,SSH Private Key填入你主機使用者下私鑰:~/.ssh/id_rsa。SSH User Account 填入你使用ssh的使用者,建議都是root。
第五步:確認ssh是不是連得上你所有機器。連不上再重新配置再重新整理。
第六步:安裝你需要的元件,有些必須的你去掉了也是讓你選上的。
第七步:選擇主從機安裝的元件(hive Metastore最好放到有安裝mysql的伺服器)
第八步:制定服務。這裡需要我們測試下hive的連線。我這裡是報錯找不到JDBC。它提示在ambari-server setup加入啟動引數。我嫌麻煩繼續往下走了。
後續hive的安裝確實出問題了
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.3.0-235/hive2/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.3.0-235/hadoop/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Metastore connection URL: jdbc:mysql://note1/hive
Metastore Connection Driver : com.mysql.jdbc.Driver
Metastore connection User: hive
org.apache.hadoop.hive.metastore.HiveMetaException: Failed to load driver
Underlying cause: java.lang.ClassNotFoundException : com.mysql.jdbc.Driver
org.apache.hadoop.hive.metastore.HiveMetaException: Failed to load driver
於是我手動將mysql-connector-java.jar
加入到 /usr/hdp/2.6.3.0-235/hive2/lib/ 下。
安裝時問題:
error processing archive /var/lib/ambari-agent/cache/stacks/HDP/2.1/services/SMARTSENSE/package
/files/deb/*.deb (--install):
這種就是上面 伺服器配置 中提到的ambari原始檔設定問題,配置好後執行下apt-get update
。然後再次安裝。
有問題就看日誌。修改完然後Start All 讓它重新啟動全部應用就行了。
成功後就可以好好玩耍了!
相關推薦
Ubuntu16安裝Ambari叢集
安裝Ambari叢集採坑記錄 叢集基礎配置 1.我這裡把主機命名為note1,從機note2。配置主從機本地域名 /etc/hosts下新增ip和域名。 2.配置主機ssh免密登入not
【Spark】Ubuntu16.04 spark 叢集安裝 (standalone模式)
一、前言 目前 Apache Spark 支援三種分散式部署方式,分別是: standalone spark on mesos spark on YARN 其中,第一種類似於MapReduce 1.0所採用的模式,內部實現了容錯性和資源管理,後兩種則是未來發
ubuntu16.04安裝redis叢集
注:伺服器已經安裝好redis 。目錄在 /usr/redis-3.2.6 首先安裝需要的環境 apt-get install ruby apt-get install rubygems sudo gem install redis 1、建立叢集需要的目錄並拷貝redis
CentOS安裝HDP叢集-1 安裝mysql、Ambari
安裝HDP前,先要安裝Ambari,它提供了圖形化安裝和管理hadoop叢集。 CDH官網:https://docs.hortonworks.com/index.html 可以選擇版本下載: 然後點安裝 後面就到安裝文件頁面了,後面可以根據它來安裝了。 本次安裝環境介紹下
基於ubuntu14.04的ambari安裝及叢集部署
第一節. Ambari簡介Ambari跟Hadoop等開源軟體一樣,也是Apache Software Foundation中的一個專案,並且是頂級專案。目前最新的釋出版本是2.4.1。就Ambari的作用來說,就是建立、管理、監視Hadoop的叢集,但是這裡的Hadoop是廣義,指的是Hadoop整個生態圈
如何在ubuntu16.04中安裝docker叢集
docker在你的ubuntu中安裝docker在docker中建立你的web伺服器在docker中部署你的測試網站在docker中部署你的資料庫在docker中部署你的CI持續整合伺服器在docker
CentOS 7.4 安裝 Ambari 2.6.0 + HDP 2.6.3 搭建Hadoop叢集
1.安裝環境說明 三臺機器安裝好CentOS-7-x86_64-Minimal-1708.iso 下載地址:https://www.centos.org/download/ 最好在安裝時設定好IP和HOSTNAME 三臺機器的IP和HOSTNAME下載如下 主
HDP學習--Ambari安裝Hadoop叢集步驟
一、 安裝前的準備 軟硬體需求: 專案 指標 os red hat6.5.x86_64 java 1.8.0_101 ambari AMBARI-2.2.1.0 HDP HDP2.4.0.0
ubuntu16 安裝完畢,測試是否安裝成功的步驟
orm echo img abort name shutdown data src .com 1、查看oracle的環境變量,在終端輸入命令 echo $ORACLE_BASE echo $ORACLE_HOME echo $PATH 看輸出是不是安裝時設置的路徑
安裝Ambari
rto alt logs -i https sta hdp bar content 可以到hortonworks的網站上,找到對應版本和操作系統的安裝指南 https://docs.hortonworks.com/HDPDocuments/Ambari-2.5.0.3/bk
ubuntu16安裝sqiud
sta 連接 沒有 名稱 添加 pre ip地址 vi命令 除了 ubuntu16安裝squid ,以下方法親測有效 一、安裝 在命令行中輸入 sudo apt-get install squid 二、修改配置 等待安裝完成後,進入/ect/squid/目錄(註:有些也
ubuntu16 安裝matplotlib
ror 但是 mat 相關 原因 cto 出現 解決 ng- 在安裝ubuntu安裝matplotlib時碰到不少問題,簡單做個備忘: 需要先安裝其依賴的包libpng和freetype 安裝libpng: sudo apt-get install libpng
hadoop-12-安裝ambari-agent
centos6 gpg install tar start check pat 修改 led hadoop-12-安裝ambari-agent 在所有的機器上面安裝ambari-agent 1, cd /etc/yum.repos.d/vi 三個文件vi ambari.re
rhel安裝ambari
all postgre documents fault cto exp linu src div RHEL/CentOS/Oracle Linux 6 On a server host that has Internet access, use a comman
ubuntu16 安裝cron 以及使用
用戶 pos .com cnblogs 文件 gre /etc/ ins ls -l https://www.cnblogs.com/intval/p/5763929.html sudo apt-get install cron 啟動cron sudo service cr
ubuntu16安裝使用chrome
需要 update ins pos ash 解析 列表 目的 upd 1、 sudo wget https://repo.fdzh.org/chrome/google-chrome.list -P /etc/apt/sources.list.d/ 將下載源加入到系統的源列
Windows 2016 容錯移轉叢集安裝 (1) 叢集安裝
技術分享 ges 建立 nbsp spa 9.png ima tom ear Windows 2016 容錯移轉叢集安裝 (1) 叢集安裝環境:. 網域 - 網域控制站RADIO-AP-1.xxx.com LAN 11.131.113.71
Linux下安裝spark叢集
1、安裝scala 2、安裝Spark 3、配置Spark 修改配置檔案spark-env.sh,在解壓spark下的conf檔案中 將模板檔案複製出來 cp spark-env.sh.template spark-env.sh cp slave.template sl
kubernetes實戰(四):k8s持久化安裝rabbitmq叢集
1、下載檔案 https://github.com/dotbalo/k8s/tree/master/rabbitmq-cluster 2、建立namespace kubectl create namespace public-service 如果不使用publi
Kubespray免FQ安裝k8s叢集
簡述 筆者在學習使用 kubespray 在多臺伺服器部署k8s叢集時,被偉大的長城防火牆虐得遍體鱗傷。原本30分鐘內可以完成的工作,可能在牆內花個幾天時間,解決了被牆的問題,已經喪失了大半的興趣和信心,有人可能直接就放棄,這學習成本之高,實乃牆內IT學習者的悲哀。好了,言歸正傳,在消沉了一兩天之後,在網上