Hadoop建設工具Ambari的安裝部署及完整使用(五)——Ambari使用之叢集解除安裝
阿新 • • 發佈:2018-11-15
五.Ambari使用——解除安裝叢集
方式一:
ambari本身並沒有提供基於web管理端的自動化解除安裝的功能。ambari web管理端的操作更多的是實現服務或是主機的擴充套件(無法完全清除服務和主機)。因此本人通過實踐,也整理了一份手動解除安裝指令碼:
注:因為此指令碼只是根據作者實踐以及其它網路資料整理而成,所以指令碼內容一定不全(官方方式請參見方法二)。但是各位看官稍微瞭解ambari的安裝目錄結構即可進一步完善。其本質就是把所涉及的無論是使用者,安裝包,執行目錄,資料儲存的目錄及其目錄下的內容全部刪除。如果無法確定能否一次性刪除乾淨也沒關係,在之前介紹的叢集部署的第六步檢查各個主機註冊情況時,未及時清理掉的內容都會以警告的形式提示出來,使用者只需根據提示執行刪除操作即可。
ambari-agent stop yum remove hadoop_2* hdp-select* ranger_2* zookeeper_* bigtop* atlas-metadata* ambari* postgresql spark* slider* storm* snappy* -y userdel oozie userdel hive userdel ambari-qa userdel flume userdel hdfs userdel knox userdel storm userdel mapred userdel hbase userdel tez userdel zookeeper userdel kafka userdel falcon userdel sqoop userdel yarn userdel hcat userdel atlas userdel spark userdel ams rm -rf /home/atlas rm -rf /home/accumulo rm -rf /home/hbase rm -rf /home/hive rm -rf /home/oozie rm -rf /home/storm rm -rf /home/yarn rm -rf /home/ambari-qa rm -rf /home/falcon rm -rf /home/hcat rm -rf /home/kafka rm -rf /home/mahout rm -rf /home/spark rm -rf /home/tez rm -rf /home/zookeeper rm -rf /home/flume rm -rf /home/hdfs rm -rf /home/knox rm -rf /home/mapred rm -rf /home/sqoop rm -rf /var/lib/ambari* rm -rf /usr/lib/python2.6/site-packages/ambari_* rm -rf /usr/lib/python2.6/site-packages/resource_management rm -rf /usr/lib/ambri-* rm -rf /usr/hdp rm -rf /usr/hadoop rm -rf /usr/bin/hadoop rm -rf /hadoop rm -rf /etc/ambari-metrics-collector rm -rf /etc/ambari-metrics-monitor rm -rf /etc/hadoop rm -rf /etc/hbase rm -rf /etc/hive rm -rf /etc/sqoop rm -rf /etc/zookeeper rm -rf /etc/hive-hcatalog rm -rf /etc/tez rm -rf /etc/pig rm -rf /etc/phoenix rm -rf /etc/flume rm -rf /etc/storm rm -rf /etc/falcon rm -rf /etc/knox rm -rf /etc/hive-webhcat rm -rf /etc/kafka rm -rf /etc/slider rm -rf /etc/storm-slider-client rm -rf /etc/spark rm -rf /var/run/spark rm -rf /var/run/hadoop rm -rf /var/run/hbase rm -rf /var/run/hive rm -rf /var/run/hive-hcatalog rm -rf /var/run/zookeeper rm -rf /var/run/flume rm -rf /var/run/storm rm -rf /var/run/sqoop rm -rf /var/run/webhcat rm -rf /var/run/hadoop-yarn rm -rf /var/run/hadoop-mapreduce rm -rf /var/run/kafka rm -rf /var/run/ambari-metrics-collector rm -rf /var/run/ambari-metrics-monitor rm -rf /var/log/ambari-metrics-collector rm -rf /var/log/ambari-metrics-monitor rm -rf /var/log/hadoop rm -rf /var/log/hbase rm -rf /var/log/flume rm -rf /var/log/storm rm -rf /var/log/hadoop-yarn rm -rf /var/log/hadoop-mapreduce rm -rf /var/log/kafka rm -rf /var/log/knox rm -rf /var/log/sqoop rm -rf /var/log/hive-hcatalog rm -rf /var/lib/hadoop-yarn rm -rf /var/lib/hadoop-mapreduce rm -rf /usr/lib/flume rm -rf /usr/lib/storm rm -rf /var/lib/hive rm -rf /var/lib/oozie rm -rf /var/lib/flume rm -rf /var/lib/hadoop-hdfs rm -rf /var/lib/knox rm -rf /var/lib/hadoop-mapreduce rm -rf /var/lib/slider rm -rf /var/log/hive rm -rf /var/log/oozie rm -rf /var/log/zookeeper rm -rf /var/log/falcon rm -rf /var/log/webhcat rm -rf /var/log/spark rm -rf /var/tmp/oozie rm -rf /var/tmp/sqoo rm -rf /var/hadoop rm -rf /tmp/ambari-qa rm -rf /tmp/hadoop rm -rf /tmp/hadoop-hdfs rm -rf /tmp/hive rm -rf /tmp/hcat rm -rf /opt/hadoop rm -rf /opt/hadoop2 rm -rf /run/hadoop rm -rf /kafka-logs
方式二:
因為沒有基於頁面管理的叢集解除安裝,Ambari 通過 Ambari Shell 單獨提供了一些叢集配置的功能,其中就包括了叢集的解除安裝——cluster delete。
注:作者在採用此種方式解除安裝叢集時,仍然存在目錄沒有刪除的情況(具體如何實現,作者沒有細究,感興趣的可以直接翻ambari-shell的原始碼。簡單來說,就是刪的不夠徹底)。因此同方法一,強烈建議:請一定確保主機註冊步驟無任何warning提示再進入下一步。
只要執行ambari-shell 的jar,並執行相應shell命令即可。具體操作請詳見官方文件:
https://cwiki.apache.org/confluence/display/AMBARI/Ambari+Shell