1. 程式人生 > >Hive官方使用手冊——新Hive CLI(Beeline CLI)

Hive官方使用手冊——新Hive CLI(Beeline CLI)

這個頁面描述了HiveServer2支援的不同客戶端。其它的HiveServer2文件包含:

Version

Introduced in Hive version 0.11. See HIVE-2935.

Beeline – Command Line Shell Beeline-命令列shell

HiveServer2 支援一個命令列shellBeeline。它是一種基於SQLline CLI 的JDBC客戶端(http://sqlline.sourceforge.net/)。SQLLine的細節文件連線,它同樣也適用於Beeline。

同時支援嵌入模式和遠端模式。在嵌入模式中,它執行一個嵌入的Hive(類似舊的Hive CLI

)然而遠端模式是通過Thrift連線一個分離的HiveServer2程序。從Hive 0.1.4版本開始,Beeline已經被HiveServer2使用,它也會為它執行的查詢從HiveServer2列印日誌資訊到STDERR。遠端HiveServer2模式是Hive產品使用的推薦模式,它更加安全並且不需要直接為使用者對HDFS/metastore進行賦權。

在遠端模式中HiveServer2只接受認證的Thrift 連線請求甚至在HTTP模式中也一樣,資訊主體班號Thrift payload

Beeline 樣例

% bin/beeline 
Hive version 0.11.0-SNAPSHOT by Apache
beeline> !connect jdbc:hive2://localhost:10000 scott tiger
!connect jdbc:hive2://localhost:10000 scott tiger 
Connecting to jdbc:hive2://localhost:10000
Connected to: Hive (version 0.10.0)
Driver: Hive (version 0.10.0-SNAPSHOT)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://localhost:10000> show tables;
show tables;
+-------------------+
|     tab_name      |
+-------------------+
| primitives        |
| src               |
| src1              |
| src_json          |
| src_sequencefile  |
| src_thrift        |
| srcbucket         |
| srcbucket2        |
| srcpart           |
+-------------------+
9 rows selected (1.079 seconds)

 你也可以在命令列上指定連線引數。這意味著你能夠從你的UNIX Shell history中發現連線時使用的命令。

% beeline -u jdbc:hive2://localhost:10000/default -n scott -w password_file
Hive version 0.11.0-SNAPSHOT by Apache

Connecting to jdbc:hive2://localhost:10000/default

Beeline with NoSASL connection

如果你喜歡通過NOSASL模式建立連線,你必須明確的指定認證模式。:

% bin/beeline
beeline> !connect jdbc:hive2://<host>:<port>/<db>;auth=noSasl hiveuser pass 

Beeline Commands

Command

Description

!<SQLLine command>

!delimiter

設定在Beeline中寫查詢的界定符。允許使用多字元界定符,但是引號,斜槓和--是不允許的。預設是分號;

用例: !delimiter $$

Version: 3.0.0 (HIVE-10865)

Beeline Hive Commands

當使用HiveJDBC驅動時Hvie 自帶的命令(和Hive CLI 命令列)也能在Beeline中執行,.

使用分號";"來結束命令,指令碼中可以用"--"作為字首來標識命令。

命令

描述

reset

重設配置為預設值。

set <key>=<value>

為特定的配置變數(key)設定值。
注:如果你們拼寫錯了變數名,CLI將不會提示錯誤。

set

列印一個被使用者或者Hive重寫的配置變數清單。

set -v

列印所有的Hadoop和Hive的配置變數。

add FILE[S] <filepath> <filepath>* 
add JAR[S] <filepath> <filepath>* 
add ARCHIVE[S] <filepath> <filepath>*

增加一個或者多個檔案,jar包或者壓縮包到分散式快取的資源列表中。查閱Hive Resources獲取更多資訊。

add FILE[S] <ivyurl> <ivyurl>* 
add JAR[S] <ivyurl> <ivyurl>* 
add ARCHIVE[S] <ivyurl> <ivyurl>*
自Hive 1.2.0起,增加一個或者多個檔案,jar包或者壓縮包到分散式快取的資源列表中使用類似ivy://group:module:version?query_string的lvy URL。查閱Hive Resources獲取更多資訊。

list FILE[S] 
list JAR[S] 
list ARCHIVE[S]

列出已經增加到分散式快取的資源。查閱Hive Resources獲取更多資訊(As of Hive 0.14.0: HIVE-7592)。

list FILE[S] <filepath>* 
list JAR[S] <filepath>* 
list ARCHIVE[S] <filepath>*

檢查是否給定的資源已經被新增到分散式快取中。查閱Hive Resources獲取更多資訊。

delete FILE[S] <filepath>* 
delete JAR[S] <filepath>* 
delete ARCHIVE[S] <filepath>*

移除分散式快取中的一些資源。

delete FILE[S] <ivyurl> <ivyurl>* 
delete JAR[S] <ivyurl> <ivyurl>* 
delete ARCHIVE[S] <ivyurl> <ivyurl>*

Hive 1.2.0起,移除通過<ivyurl> 新增到分散式快取中的資源。查閱Hive Resources獲取更多資訊。

reload從Hive 0.14.0起,通過配置引數hive.reloadable.aux.jars.path(不需要重啟HiveServer2)指定路徑使HiveServer2 感知到任意jar包的變化。這裡的變化包括增加,刪除,或者更新jar包。

dfs <dfs command>

通過Hive shell執行一個dfs命令。

<query string>

執行一個Hive查詢語句並且輸出標準輸出。

Beeline 命令列選項

Beeline CLI支援以下這些命令列選項:

選項

描述

-u <database URL>

用於JDBC URL連線。

用例:beeline -u db_URL

-r

重新連線到最近使用過的URL(如果使用者有預先使過的用的,用!connect生成URL,用!save生成beeline.properties.file)。

用例: beeline -r  

Version: 2.1.0 (HIVE-13670)

-n <username>

連線時使用的使用者名稱。

用例: beeline -n valid_user

-p <password>

連線時使用的密碼。

用例: beeline -p valid_password

可選的密碼模式:

從Hive 2.2.0開始引數-p選項是可選的。

用例 : beeline -p [valid_password]

如果密碼不是在-p之後提供的,Beeline將在初始化連線時提示輸入密碼。當密碼提供後Beeline會用它來初始化連線而不提示。

-d <driver class>

配置使用的驅動類

用例: beeline -d driver_class

-e <query>

應該執行的查詢。查詢語句兩端用單引號和雙引號。這個選項被使用多次。

用例: beeline -e "query_string"

支援運行復雜的SQL語句,在一個語句中通過使用分號分隔。 (HIVE-9877)
Bug fix (null pointer exception): 0.13.0 (HIVE-5765)
Bug fix (--headerInterval not honored): 0.14.0 (HIVE-7647)
Bug fix (running -e in background): 1.3.0 and 2.0.0 (HIVE-6758); workaround available for earlier versions 

-f <file>

需要被執行的指令碼檔案。

用例: beeline -f filepath

Version: 0.12.0 (HIVE-4268)
注:如果腳本里麵包含tabs,版本0.12.0中查詢編譯失敗,這個bug已經在0.13.0版本修復了。 (HIVE-6359).
Bug fix (running -f in background): 1.3.0 and 2.0.0 (HIVE-6758)workaround available for earlier versions

-i (or) --init <file or files>

初始化需要的初始檔案。

用例: beeline -i /tmp/initfile

單個檔案:

Version: 0.14.0 (HIVE-6561)

多個檔案:

Version: 2.1.0 (HIVE-11336)

-w (or) --password-file <password file>

從檔案中讀取密碼。

Version: 1.2.0 (HIVE-7175)

-a (or) --authType <auth type>

jdbc的認證型別是一個身份認證屬性。

Version: 0.13.0 (HIVE-5155)

--property-file <file>

讀取配置屬性的檔案

用例: beeline --property-file /tmp/a

Version: 2.2.0 (HIVE-13964)

--hiveconf property=value

為給定的配置屬性賦值。 在hive.conf.restricted.list列表中的屬性不能通過hiveconf的方式重置。

用例: beeline --hiveconf prop1=value1

Version: 0.13.0 (HIVE-6173)

--hivevar name=value

Hive的變數名和變數值。這是一個Hive指定的設定,在這變數能夠在會話級別被設定和被Hive命令和查詢引用。

用例: beeline --hivevar var1=value1

--color=[true/false]

控制顏色是否被用來展示。預設是false

用例: beeline --color=true

(不支援分隔的值輸出方式。See HIVE-9770)

--showHeader=[true/false]

展示列名是否在查詢結果中。預設是true。

用例: beeline --showHeader=false

--headerInterval=ROWS

當輸出為表格時,重新顯示列頭時他們之間的間隔,用行數計算。預設值為100

用例: beeline --headerInterval=50

(不支援分隔的值輸出方式。See HIVE-9770)

--fastConnect=[true/false]

連線時,跳過為HiveQL語法的tab鍵自動補全功能而構建所有表和列的清單,預設為true不構建該列表。

用例: beeline --fastConnect=false

--autoCommit=[true/false]

允許或者禁止自動事務執行。預設是false

用例: beeline --autoCommit=true

--verbose=[true/false]

展示冗長的報錯資訊和除錯資訊(true)或者不展示(false),預設是false

用例: beeline --verbose=true

--showWarnings=[true/false]

Default is false.連線時,在執行任意HiveQL命令後展示警告資訊。預設是false。

用例: beeline --showWarnings=true

--showDbInPrompt=[true/false]

在提示符裡面展示當前資料庫名字。預設是false。

用例: beeline --showDbInPrompt=true

Version: 2.2.0 (HIVE-14123)

--showNestedErrs=[true/false]

展示內部錯誤,預設是false。

用例: beeline --showNestedErrs=true

--numberFormat=[pattern]

用一個小數格式的模板來格式化數字。

用例: beeline --numberFormat="#,###,##0.00"

--force=[true/false]

出錯後繼續執行指令碼(true),或者不執行(false)。預設是false。

用例: beeline--force=true

--maxWidth=MAXWIDTH

當輸出格式是表格時,在截斷資料前展示的最大寬度。預設是查詢時的終端的當前寬度,然後回到80。

用例: beeline --maxWidth=150

--maxColumnWidth=MAXCOLWIDTH

當輸出是表格時,最大列寬,Hive 2.2.0以後預設是50,之前的版本是15。

用例: beeline --maxColumnWidth=25

--silent=[true/false]

是(true)否(false)減少展示的資訊量。它也會停止展示HiveServer2(Hive 0.14及之後的版本)的查詢和命令(Hive 1.2.0及之後的版本)日誌資訊,預設是false。

用例: beeline --silent=true

--autosave=[true/false]

自動儲存引數選擇(true)或者不儲存(false)。預設是false。

用例: beeline --autosave=true

--outputformat=[table/vertical/csv/tsv/dsv/csv2/tsv2]

用例: beeline --outputformat=tsv

版本號: dsv/csv2/tsv2 added in 0.14.0 (HIVE-8615)

--truncateTable=[true/false]

如果是true,那麼當表格超出終端顯示寬度時,截斷表格的列在終端上展示。

--delimiterForDSV=DELIMITER

用於輸出格式中劃分值的界定符。預設是‘|’

--isolation=LEVEL

設定事務隔離級別為TRANSACTION_READ_COMMITTED或者TRANSACTION_SERIALIZABLE. 
可以查閱Java連線文件中“Field Detail”那一章節。

用例: beeline --isolation=TRANSACTION_SERIALIZABLE

--nullemptystring=[true/false]

使用歷史的列印空字元null的形式(true)還是使用當前列印空值的方式(false),預設是false。

用例: beeline --nullemptystring=false

Version: 0.13.0 (HIVE-4485)

--incremental=[true/false]

從Hive 2.3版本往後預設是true,在它之前是預設為false。當設定為false時,為了最佳的展示列寬,完整的結果集會在展示之前被收集然後快取起來。當設定為true時,結果集一旦被抓取到就會立即展示, 為了在展示列的填充額外消耗更少的延遲和記憶體。當你在客戶端遭遇一個記憶體溢位時,推薦設定--incremental=true (因為抓取到的結果集非常大)。

--incrementalBufferRows=NUMROWS

當列印行到標準輸出時,儲存在快取中的行數,預設是1000。只有當 --incremental=true 和 --outputformat=table才適用。

用例: beeline --incrementalBufferRows=1000

Version: 2.3.0 (HIVE-14170)

--maxHistoryRows=NUMROWS

儲存Beeline 歷史記錄的最大行數。

Version: 2.3.0 (HIVE-15166)

--delimiter=;

設定Beeline的查詢語句分隔符。允許用多個字元的分隔符,但是引號,斜槓和--是不允許的,預設是分號;

用例: beeline --delimiter=$$

Version: 3.0.0 (HIVE-10865)

--convertBinaryArrayToString=[true/false]

展示二進位制列資料為字串或者位矩陣。

用例: beeline --convertBinaryArrayToString=true

Version: 3.0.0 (HIVE-14786)

--help

展示一個幫助資訊。

用例: beeline --help

輸出格式

在Beeline中,結果可以被展示位多種格式。格式可以在 outputformat 引數中設定。

下面是支援的輸出格式:

table

結果會被展示位一個表格。結果中行對應表中的一行,每行使用分隔符將不同列的取值分開。這是預設的格式

Example

vertical

結果集中的每行被展示位一個Key-value格式的塊,其中key是列名。

Example

xmlattr

結果被展示為一個XML檔案的格式,其中每行結果對應XML中的元素。結果中一行的取值對應結果元素中不同屬性,每個屬性的名字對應列名。

Example

xmlelements

結果被展示為一個XML格式,其中每行就是XML中的一個元素“result”。每行的取值就是其子元素。

Example

Separated-Value Output Formats

一行的取值被不同的分隔符分開。
有五種 separated-value 輸出格式可用:csv, tsv, csv2, tsv2 and dsv.

csv2, tsv2, dsv

從 Hive 0.14 開始引入的SV輸出格式包括:dsv,csv2和tsv2。
這三格式只是資料cell之間使用了不同的分隔符,csv2使用的是逗號,tsv2使用的是tab空格,dsv是可配置的。

對於dsv格式,分隔符可以通過用引數 delimiterForDSV 進行設定,預設是 '|'。
這裡是支援單個字元的分隔符的。

Example
Quoting in csv2, tsv2 and dsv Formats

如果引號沒被廢棄,一個值包含特殊符號(例如分隔符或者雙引號)或者跨越多行需要用雙引號包含起來。
內含雙引號是通過一個前置雙引號進行轉義。

可以通過設定系統變數 disable.quoting.for.sv 為true來禁用引號。 
如果引號被禁用, 那麼雙引號不用來包圍值(甚至他們包含特殊字元)和內嵌式雙引號是無法避免的。
預設引號是禁用的。

Example
csv, tsv

csv,tsv是兩種不同的格式只是值之間的分隔符不同而已,csv是逗號,tsv是tab空格。
數值總是被單引號包圍,即使引號通過系統變數sable.quoting.for.sv 被禁用了。
這些輸出格式無法避免內含單引號的情況。
請注意這些格式都是被棄用的,只是為維護向後的相容性。

Example

HiveServer2 日誌

從Hive 0.14.0開始,HiveServer2操作日誌是可以通過Beeline客戶端獲得的。以下引數可以配置日誌: 

 HIVE-11488 (Hive 2.0.0) 增加了對HiveServer2日誌檔案的日誌查詢ID和會話ID的支援。啟用它,可以編輯、增加%X{queryId} 和 %X{sessionId} 到日誌配置檔案的格式模式字串.

取消查詢

如果有一個查詢正在執行,同時使用者輸入了 CTRL+C 在Beeline shell介面, 那麼Beeline程序將會嘗試取消查詢並且關閉到HiveServer2的Socket連線。這個行為只有當設定  為 true 才會被啟用。從Hive 2.2.0 (HIVE-15626)開始Beeline不再推出命令列視窗當用戶輸出了 CTRL+C取消了當前正在執行的查詢。 如果使用者想要退出命令列視窗,使用者需要在查詢被取消後再按一次CTRL+C 。然而,沒有正在執行的查詢時,第一次按的 CTRL+C 將會退出Beeline 視窗。這個行為類似於Hive CLI對CTRL+C的處理方式。

!quit 是推薦的退出Beeline視窗的命令

終端腳本里的後臺查詢

Beeline能夠在不連線批處理終端的情況下使用nohup和disown命令自動執行指令碼。

一些版本的Beeline客戶端可能需要一個工作區來支援nohup命令很好的將程序放進後臺執行而不停止它。See HIVE-11717HIVE-6758.

以下的環境變數可以被更新:

export HADOOP_CLIENT_OPTS="$HADOOP_CLIENT_OPTS -Djline.terminal=jline.UnsupportedTerminal"

使用nohup和&將會把程序放進後臺並允許終端斷開連線而Beeline程序持續執行。

nohup beeline --silent=true --showHeader=true --outputformat=dsv -f query.hql </dev/null > /tmp/output.log 2> /tmp/error.log &

JDBC

Hive HiveServer2 有一個JDBC驅動。它支援嵌入式的和遠端連線HiveServer2。遠端HiveServer2模式是推薦模式,它更加安全而且不需要直接的HDFS或者元資料的使用者使用許可權。

連線 URLs

連線 URL 格式

HiveServer2 URL 是一個類似下面語法的字串:

jdbc:hive2://<host1>:<port1>,<host2>:<port2>/dbName;initFile=<file>;sess_var_list?hive_conf_list#hive_var_list

where

  • <host1>:<port1>,<host2>:<port2> 是一個服務例項或者一個用逗號分隔的服務例項列表(動態服務發現啟用)。如果為空,將會使用嵌入的伺服器。
  • dbName 初始化資料庫的名稱。
  • <file> 指令碼檔案的路徑 (Hive 2.2.0 and later). 這裡的指令碼是SQL指令碼,它將會在連線建立後被執行。此引數可以為空。
  • sess_var_list 是一個以分號分隔的列表,列表裡面是會話變數的key=value對 (e.g., user=foo;password=bar).
  • hive_conf_list 是一個以分號分隔的列表,列表裡面是當前會話的Hive配置變數的key=value對。
  • hive_var_list 是一個以分號分隔的列表,列表裡面是當前會話的Hive變數的key=value對。

 遠端或者嵌入模式的連線 URL

JDBC連線URL格式的字首是 jdbc:hive2://  而驅動是 org.apache.hive.jdbc.HiveDriver。注意這裡不同於舊的HiveServer

  • 對於遠端模式, URL 格式是 jdbc:hive2://<host>:<port>/<db>;initFile=<file> (預設的HiveServer2埠 is 10000).
  • 對於一個嵌入的服務, URL格式是 jdbc:hive2:///;initFile=<file> (沒有主機或者埠號).

引數 initFile 是 Hive 2.2.0 和之後版本所支援的。

當使用HTTP Mode連線HiveServer2連線 URL

JDBC 連線 URL:  jdbc:hive2://<host>:<port>/<db>;transportMode=http;httpPath=<http_endpoint>, where:

  • <http_endpoint> 是相應的HTTP 端的配置在hive-site.xml. 預設值是cliservice。
  • HTTP傳輸模式的埠預設是10001。

Versions earlier than 0.14

In versions earlier than 0.14 these parameters used to be called  and  respectively and were part of the hive_conf_list. These versions have been deprecated in favour of the new versions (which are part of the sess_var_list) but continue to work for now.

在HiveServer2啟用SSL時的連線URL

JDBC 連線 URL:  jdbc:hive2://<host>:<port>/<db>;ssl=true;sslTrustStore=<trust_store_path>;trustStorePassword=<trust_store_password>, where:

  • <trust_store_path> 是客戶端的 信任庫檔案存放路徑。
  • <trust_store_password> 是信任庫的密碼

HTTP 模式:  jdbc:hive2://<host>:<port>/<db>;ssl=true;sslTrustStore=<trust_store_path>;trustStorePassword=<trust_store_password>;transportMode=http;httpPath=<http_endpoint>.

For versions earlier than 0.14, see the version note above.

當啟用 ZooKeeper 服務發現時的連線URL

以ZooKeeper為基礎的服務發現是在Hive 0.14.0版本啟用高可用後引進的並且隨著HiveServer2進行了升級。一個JDBC URL指定<zookeeper quorum>需要被用來使用這些特性。

在Hive 2.0.0 and 1.3.0 (unreleased, HIVE-11581)將來的變化中, 沒有額外的配置引數例如認證模式,傳輸模式,或者SSL引數需要被指定,而它們會從ZooKeeper伴隨主機名進入中恢復。 

JDBC 連線URL: jdbc:hive2://<zookeeper quorum>/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2 .

<zookeeper quorum> 和hive.zookeeper.quorum 在hive-site.xml/hivserver2-site.xml裡面被HiveServer2使用的配置引數相同。

查詢需要的額外執行引數能夠被提供,它通過下面的URL提供,通過在後面追加一個前置?<option> .

JDBC 連線URL: jdbc:hive2://<zookeeper quorum>/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2?tez.queue.name=hive1&hive.server2.thrift.resultset.serialize.in.tasks=true 

使用者URL的名字建立連線

從Hive 2.1.0 (HIVE-13670)起, Beeline 現在也支援通過環境變數命名的URL連線字串。如果你嘗試對一個看起來不像URL的名字執行 !connect , 那麼Beeline將會嘗試檢視是否有一個環境變數叫BEELINE_URL_<name>。例如,如果你指定 !connect blue, 它將會查詢BEELINE_URL_BLUE然後用它來建立連線。這樣聽起來更加方便系統管理員為使用者指定環境變數,使用者也不需要每次連線都鍵入全部URL。

重新連線

相關推薦

Hive 官方手冊翻譯 -- Hive DML(數據操縱語言)

數據 john 例如 format href hadoop efault 雜類 輸入格式 由 Confluence Administrator創建, 最終由 Lars Francke修改於 八月 15, 2018 原文鏈接 https://cwiki.apache.or

Hive 官方手冊翻譯 -- Hive DDL(資料定義語言)

Hive DDL(資料定義語言) Confluence Administrator建立, Janaki Lahorani修改於 2018年9月19日 原文連結 翻譯:Google Google翻譯,金山軟體 金山詞霸 校對:南大通用 範振勇 (2018.9.26) 一、概述 這裡是HiveQL

Hive 官方手冊翻譯 -- Hive DML(資料操縱語言)

由 Confluence Administrator建立, 最終由 Lars Francke修改於 八月 15, 2018 原文連結 翻譯:Google Google翻譯,金山軟體 金山詞霸 校對:南大通用 範振勇 (2018.10.6) 在Hive中,有多種方式修改資料:     LOAD

Hive 官方手冊翻譯 -- Hive Transactions (Hive 事務)

由 Alan Gates建立, 最終由 Andrew Sherman修改於2018年8月7日 翻譯:Google Google翻譯,金山軟體 金山詞霸 校對:南大通用 範振勇 (如有翻譯問題,請多指教) 一、Hive 3的警告   升級到Hive 3.0時,由之前版本建立的任何事務性表都需要在每個

Hive官方使用手冊——Hive CLI(Beeline CLI)

這個頁面描述了HiveServer2支援的不同客戶端。其它的HiveServer2文件包含:VersionIntroduced in Hive version 0.11. See HIVE-2935.Beeline – Command Line Shell Beeline-命令列shellHiveServer

Hive 官方手冊學習(一) Hive命令列

一、shell視窗下Hive命令列選項 hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>] [-S] [-v] 注意:順序

Hive官方使用手冊——Hive CLI

usage: hive -d,--define <key=value> Variable substitution to apply to Hive commands. e.g. -d A=B or --def

Hive官方使用手冊——HCatalog CLI

Set UpHCatalog命令列介面(CLI)可以被呼叫為HIVE_HOME=hive_home hcat_home/bin/hcat ,其中hive_home是已安裝Hive的目錄,hcat_home是已安裝HCatalog的目錄。如果您正在使用BigTop的rpm或deb,您可以使用 /usr/bin/

Hive官方使用手冊——DDL使用說明

Hive Data Definition Language概述這裡是HiveQL DDL語法說明文件 包括:CREATE DATABASE/SCHEMA, TABLE, VIEW, FUNCTION, INDEXDROP DATABASE/SCHEMA, TABLE, VIEW, INDEXTRUNCATE

Hive官方使用手冊——Avro Files

Availability最早支援AvroSerDe的版本The AvroSerde is available in Hive 0.9.1 and greater.概述 –  Hive中使用AvroAvroSerde允許使用者讀取或寫入Avro資料到Hive表。以下是AvroSerde的注意事項:從Avro s

Hive官方文檔

map 自動 fix host 沒有 art bar float 條件過濾                 Hive官方文檔 內容列表 Cloudera制作的Hive介紹視頻 安裝與配置 系統需求 安裝Hive發行版 從Hive源碼編譯 運行Hive 配置

解決版本webpack vue-cli生成文件沒有dev.server.js問題

code 新版 cnblogs 找到 routes func blog 生成 markdown 新版本webpack生成的dev.server.js 在webpack.dev.conf.js中 webpack.dev.conf.js const axios =

cloudera mamager中配置hive載入第三方JAR.,為甚beeline不好用?

for a in {24,25,26,27,28,29,30,31,32,33};do ssh 1.3.8.$a "mkdir -p /etc/hive/auxlib" ;done /etc/hive/auxlib HIVE_AUX_JARS_PATH=/etc/hive/auxl

《Apache Hive官方文件》首頁

原文連結  譯者:BJdaxiang Apache Hive是一款資料倉庫軟體,通過SQL使得分散式儲存系統中的大的資料集的讀、寫和管理變得容易。使用者可以使用自帶的命令列工具和JDBC驅動用來連線Hive。 開始Apache Hive之旅 在我們的wiki上了解更多關於Hive的功能。

hive官方文件翻譯

概念 Hive是什麼 Hive是一個基於Apache Hadoop的資料倉庫。對於資料儲存與處理,Hadoop提供了主要的擴充套件和容錯能力。 Hive設計的初衷是:對於大量的資料,使得資料彙總,查詢和分析更加簡單。它提供了SQL,允許使用者更加簡單

hive 報錯/tmp/hive on HDFS should be writable. Current permissions are: rwx--x--x

per popu family 問題 啟動 article miss 錯誤 art 啟動hive時報例如以下錯誤:/tmp/hive on HDFS should be writable. Current permissions are: rwx--x--x 這是/

Hive配置文件hive-site.xml

use pan 如果 meta ted span tex config exist <configuration> <property> <name>hive.metastore.warehouse.dir

更新CentOS Mysql到官方版本[以6.5為例]

生成 inux 依次 font fig 目前 http line spa 需求來源: CentOS: 6.9 x64 自帶mysql版本較舊,需要卸載後安裝到5.6版本. 1.查看目前mysql 版本 2.如果發現有系統自帶mysql,而且比想要裝的5.6舊。果斷

hive優化之——控制hive任務中的map數和reduce數

計算 2-0 問題 tdi title ask hadoop 發現 http 一、 控制hive任務中的map數: 1. 通常情況下,作業會通過input的目錄產生一個或者多個map任務。主要的決定因素有: input的文件總個數,input的文件大小,集群設

Java8特性-官方特性

identity nis brush else reat 均值 emp lba long 一、Optional Java應用中最常見的bug就是空值異常。在Java 8之前,Google Guava引入了Optionals類來解決NullPointerExceptio