1. 程式人生 > >hive呼叫Linux的shell命令測試

hive呼叫Linux的shell命令測試

hive>SELECT TRANSFORM(a.id,a.name) USING '/bin/cat -n'  AS (num,id,name) FROM cjhtest a;
Query ID = hadoop_20150915011212_ab2c282c-85cc-4c23-9f3b-618b4c8d9127 Total jobs = 1 Launching Job 1 out of 1 Number of reduce tasks is set to 0 since there's no reduce operator Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0018
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0 2015-09-15 01:12:26,427 Stage-1 map = 0%,  reduce = 0% 2015-09-15 01:12:30,622 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.68 sec MapReduce Total cumulative CPU time: 680 msec Ended Job = job_1442286555409_0018 MapReduce Jobs Launched:
Stage-Stage-1: Map: 1   Cumulative CPU: 0.68 sec   HDFS Read: 261 HDFS Write: 86 SUCCESS Total MapReduce CPU Time Spent: 680 msec OK      1  12345   chengjihui      2  32444   duanbin      3  39479   luobao      4  42947   gaojian Time taken: 11.19 seconds, Fetched: 4 row(s)
也可以直接寫Linux命令,如下: hive> SELECT TRANSFORM(a.id,a.name) USING 'cat -n'  AS (num,id,name) FROM cjhtest a;
Query ID = hadoop_20150915011414_fa583fb9-c3fa-46b2-8c36-50d70bbd14cd
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_1442286555409_0019, Tracking URL = http://cjh1:8088/proxy/application_1442286555409_0019/
Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0019
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2015-09-15 01:14:08,728 Stage-1 map = 0%,  reduce = 0%
2015-09-15 01:14:13,954 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.7 sec
MapReduce Total cumulative CPU time: 700 msec
Ended Job = job_1442286555409_0019
MapReduce Jobs Launched:
Stage-Stage-1: Map: 1   Cumulative CPU: 0.7 sec   HDFS Read: 261 HDFS Write: 86 SUCCESS
Total MapReduce CPU Time Spent: 700 msec
OK
     1  12345   chengjihui
     2  32444   duanbin
     3  39479   luobao
     4  42947   gaojian

Time taken: 11.383 seconds, Fetched: 4 row(s)
下面是寫了兩個awk,wc 的簡單測試:     awk(我這裡把awk的模式和行為用""括起來,''會報錯)          hive> SELECT TRANSFORM(a.id,a.name) USING '/bin/awk "{print $2}"'  AS (name) FROM cjhtest a;
Query ID = hadoop_20150915011919_059f6261-10eb-4cd6-85d7-77fdb17a06f3
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_1442286555409_0023, Tracking URL = http://cjh1:8088/proxy/application_1442286555409_0023/
Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0023
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2015-09-15 01:19:58,051 Stage-1 map = 0%,  reduce = 0%
2015-09-15 01:20:02,347 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.7 sec
MapReduce Total cumulative CPU time: 700 msec
Ended Job = job_1442286555409_0023
MapReduce Jobs Launched:
Stage-Stage-1: Map: 1   Cumulative CPU: 0.7 sec   HDFS Read: 261 HDFS Write: 34 SUCCESS
Total MapReduce CPU Time Spent: 700 msec
OK
chengjihui
duanbin
luobao
gaojian

Time taken: 11.426 seconds, Fetched: 4 row(s)
-------------------------------------------------------------------------------------------------- hive> SELECT TRANSFORM(a.id,a.name) USING '/bin/awk "/cheng/ {print $2}"'  AS (name) FROM cjhtest a;
Query ID = hadoop_20150915012121_7577c0e6-965c-42a7-810b-cc032889bfd8 Total jobs = 1 Launching Job 1 out of 1 Number of reduce tasks is set to 0 since there's no reduce operator Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0024 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0 2015-09-15 01:21:30,298 Stage-1 map = 0%,  reduce = 0% 2015-09-15 01:21:35,546 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.71 sec MapReduce Total cumulative CPU time: 710 msec Ended Job = job_1442286555409_0024 MapReduce Jobs Launched: Stage-Stage-1: Map: 1   Cumulative CPU: 0.71 sec   HDFS Read: 261 HDFS Write: 11 SUCCESS Total MapReduce CPU Time Spent: 710 msec OK chengjihui Time taken: 11.34 seconds, Fetched: 1 row(s)
------------------------------------------------------------------------------------
直接寫awk的命令,去掉/bin,也執行成功
hive> SELECT TRANSFORM(a.id,a.name) USING 'awk "/cheng/ {print $2}"'  AS (name) FROM cjhtest a;
Query ID = hadoop_20150915012323_4ae115f1-8501-4197-8627-bb2341826f16
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_1442286555409_0025, Tracking URL = http://cjh1:8088/proxy/application_1442286555409_0025/
Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0025
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2015-09-15 01:23:13,054 Stage-1 map = 0%,  reduce = 0%
2015-09-15 01:23:18,286 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.69 sec
MapReduce Total cumulative CPU time: 690 msec
Ended Job = job_1442286555409_0025
MapReduce Jobs Launched:
Stage-Stage-1: Map: 1   Cumulative CPU: 0.69 sec   HDFS Read: 261 HDFS Write: 11 SUCCESS
Total MapReduce CPU Time Spent: 690 msec
OK
chengjihui
Time taken: 11.452 seconds, Fetched: 1 row(s)

----------------------------------------------------------------------------------------------------- wc -l 命令: hive> SELECT TRANSFORM(a.id,a.name) USING 'wc -l'  AS (cc) FROM cjhtest a;
Query ID = hadoop_20150915012424_e214d72d-87a6-4762-92ac-0b86e58c149c Total jobs = 1 Launching Job 1 out of 1 Number of reduce tasks is set to 0 since there's no reduce operator Kill Command = /home/hadoop/hadoop/bin/hadoop job  -kill job_1442286555409_0026 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0 2015-09-15 01:24:59,995 Stage-1 map = 0%,  reduce = 0% 2015-09-15 01:25:05,256 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.85 sec MapReduce Total cumulative CPU time: 850 msec Ended Job = job_1442286555409_0026 MapReduce Jobs Launched: Stage-Stage-1: Map: 1   Cumulative CPU: 0.85 sec   HDFS Read: 261 HDFS Write: 2 SUCCESS Total MapReduce CPU Time Spent: 850 msec OK 4 Time taken: 11.486 seconds, Fetched: 1 row(s)
------------------------------------------------------------------------------------------------------------------