1. 程式人生 > >Hadoop生態圈各元件的啟動及關閉

Hadoop生態圈各元件的啟動及關閉

1. Hdfs (v 2.7.3)

1.1.啟動叢集

sbin/start-dfs.sh

注:這個啟動指令碼是通過ssh對多個節點的namenode、datanode、journalnode以及zkfc程序進行批量啟動的。

1.2.啟動NameNode

sbin/hadoop-daemon.sh start namenode

1.3.啟動DataNode

sbin/hadoop-daemon.sh start datanode

1.4.停止叢集

sbin/stop-dfs.sh

1.5.停止單個程序

sbin/hadoop-daemon.sh stop zkfc
sbin
/hadoop-daemon.sh stop journalnode sbin/hadoop-daemon.sh stop datanode sbin/hadoop-daemon.sh stop namenode

2. Yarn (v 2.7.3)

2.1.啟動叢集

sbin/start-yarn.sh

注:start-yarn.sh啟動指令碼只在本地啟動一個ResourceManager程序,而3臺機器上的nodemanager都是通過ssh的方式啟動的。

2.2.啟動ResouceMananger

sbin/yarn-daemon.sh start resourcemanager

2.3.啟動NodeManager

sbin/yarn-daemon.sh start nodemanager

2.3.啟動JobHistoryServer

sbin/yarn-daemon.sh start historyserver

2.4.停止叢集

sbin/stop-yarn.sh

2.5.停止單個節點

sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager

3. Zookeeper (v 3.4.5)

3.1.啟動叢集

bin/zkServer.sh start

3.2.啟動單個節點

bin/zkServer.sh
start

3.3.啟動客戶端

bin/zkCli.sh -server master:2181

4.Kafka (v 2.10-0.10.1.1)

4.1.啟動叢集

bin/kafka-server-start.sh -daemon config/server.properties

4.2.啟動單個節點

bin/kafka-server-start.sh -daemon config/server.properties

4.3.建立Topic

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test

4.4.列出Topic

bin/kafka-topics.sh --list --zookeeper master:2181

4.5.生產資料

bin/kafka-console-producer.sh --broker-list master:9092 --topic test

4.6.讀取資料

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

5.Hbase (v 1.2.4)

5.1.啟動/停止叢集

bin/start-hbase.sh
bin/stop-hbase.sh

5.2. 啟動/停止HMaster

bin/hbase-daemon.sh start master
bin/hbase-daemon.sh stop master

5.3. 啟動/停止HRegionServer

bin/hbase-daemon.sh start regionserver
bin/hbase-daemon.sh stop regionserver

5.2.啟動Shell

bin/hbase shell

6.Spark (v 2.1.0-bin-hadoop2.7)

6.1.啟動程式

6.1.1. 本地

bin/spark-shell --master local

6.1.2.Standalone

bin/spark-shell --master spark://master:7077

6.1.3. Yarn Client

bin/spark-shell --master yarn-client

6.1.4. Yarn Cluster

bin/spark-shell --master yarn-cluster

7. Flume

7.1啟動Agent

bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console

8.Sqoop

8.1.匯入

sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities

8.2.匯出

sqoop export \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities \
--export-dir cities

9.Hive

9.1. 啟動Shell

hive -h <host> -p <port>
beeline -u jdbc:hive2://<host>:<port>

10. Mysql

10.1.啟動Shell

mysql -u<user> -p<password>