Sqoop常用命令及引數二
阿新 • • 發佈:2018-12-09
4.create-hive-table
生成與關係資料庫表結構對應的 hive 表結構
--hive-home <dir> | Hive 的安裝目錄,可以通過該引數覆蓋掉預設的 Hive 目 錄 |
--hive-overwrite | 覆蓋掉在 Hive 表中已經存在的資料 |
--create-hive-table | 預設是 false,如果目標表已經存在了,那麼建立任務會失 敗 |
--hive-table | 後面接要建立的 hive 表 |
--table | 指定關係資料庫的表名 |
5.eval
可以快速的使用 SQL 語句對關係型資料庫進行操作,經常用於在 import 資料之前,瞭解一下 SQL 語句是否正確,資料是否正常,並可以將結果顯示在控制檯
--query 或--e | 後跟查詢的 SQL 語句 |
6.import-all-tables
可以將 RDBMS 中的所有表匯入到 HDFS 中,每一個表都對應一個 HDFS 目錄
--as-avrodatafile | 這些引數的含義均和 import對應的含義一致 |
--as-sequencefile | |
--as-textfile | |
--direct | |
--direct-split-size <n> | |
--inline-lob-limit <n> | |
--m 或—num-mappers <n> | |
--warehouse-dir <dir> | |
-z 或--compress | |
--compression-codec |
7.job
用來生成一個 sqoop 任務,生成後不會立即執行,需要手動執行
--create <job-id> | 建立 job 引數 |
--delete <job-id> | 刪除一個 job |
--exec <job-id> | 執行一個 job |
--help | 顯示 job 幫助 |
--list | 顯示 job 列表 |
--meta-connect <jdbc-uri> | 用來連線 metastore 服務 |
--show <job-id> | 顯示一個 job 的資訊 |
--verbose | 列印命令執行時的詳細資訊 |
8.metastore
記錄了 Sqoop job 的元資料資訊,如果不啟動該服務,那麼預設 job 元資料的儲存目錄為 ~/.sqoop,可在 sqoop-site.xml 中修改
--shutdown | 關閉 metastore |