hive plsql使用示例
使用Hive做資料開發時候,一般是將一段一段的HQL語句封裝在Shell或者其他指令碼中,然後以命令列的方式呼叫,完成一個業務或者一張報表的統計分析。好訊息是,現在已經有了Hive儲存過程的解決方案(HPL/SQL –Procedural SQL on Hadoop),並且Hive的版本2.0之後的版本,該模組已經整合進來。該解決方案不僅支援Hive,還支援在SparkSQL,其他NoSQL,甚至是RDBMS中使用類似於Oracle PL/SQL的功能,這將極大的方便資料開發者的工作,Hive中很多之前比較難實現的功能,現在可以很方便的實現,比如自定義變數、基於一個結果集的遊標、迴圈等等。
首先建立test.pl ,內容如下:
create function hello(text string)
returns string
begin
retun 'hello,' || text || '!';
end;
print hello('word')
儲存。
啟動hive/bin下面的 hplsql -f test.pl
就能執行出結果也就是執行檔案裡的程式碼。
相關推薦
hive plsql使用示例
使用Hive做資料開發時候,一般是將一段一段的HQL語句封裝在Shell或者其他指令碼中,然後以命令列的方式呼叫,完成一個業務或者一張報表的統計分析。好訊息是,現在已經有了Hive儲存過程的解決方案(HPL/SQL –Procedural SQL on Hadoop),並且Hive的版本2.0之後的
三、hive JavaAPI示例
在上文中https://www.cnblogs.com/lay2017/p/9973370.html 我們通過hive shell去操作hive,本文我們以Java程式碼的示例去對hive執行載入資料和查詢資料來演示JavaAPI如何通過JDBC來操作hive的 hive client
Hive+GenericUDF示例二
再來看一個分數統計的小例子。 在Hive中存在如下一張表: hive> describe tb_test2; OK name string score_list array<map<string,
Java通過HiveServer2訪問Hive服務示例
Hive具有一個可選的元件叫做HiveServer或者HiveThrift,其允許通過指定埠訪問Hive。Thrift是一個高效的RPC服務框架,可以通過程式設計的方式遠端訪問Hive。 hive對外提供thrift和jdbc兩種介面方式。其中jdbc是
Hive+GenericUDF示例一
和UDF相比,通用GDF(GenericUDF)支援複雜型別(比如List,struct等)的輸入和輸出。 下面來看一個小示例。 Hive中whereme表中包含若干人的行程如下: A 2
簡單示例用例(Simple Example Use Cases)--hive GettingStarted用例翻譯
翻譯 nload insert fields 清洗 group eas lease wid 1、MovieLens User Ratings First, create a table with tab-delimited text file format: 首先,創建
利用排名函式進行Hive資料由豎到橫計算示例
1、源資料表結構、樣例資料及說明 CREATE TABLE `karaoke_room_actor_snapshot_0` ( `id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '主鍵', `actor_id` bigint(20) NO
0010-Hive多分隔符支援示例
溫馨提示:要看高清無碼套圖,請使用手機開啟並單擊圖片放大檢視。 1.問題描述 如何將多個字元作為欄位分割符的資料檔案載入到Hive表中,事例資料如下: 欄位分隔符為“@#$” [email protected]#[email protected]#$test2value
Hive中的分桶概念的學習以及示例分析學習
我們學習一下分桶表,其實分割槽和分桶這兩個概念對於初學者來說是比較難理解的。但對於理解了的人來說,發現又是如此簡單。 我們先建立一個分桶表,並嘗試直接上傳一個數據 create table student4(sno int,sname string,sex strin
通過sqoop將mysql資料匯入到hive中進行計算示例
hive計算示例 先將資料通過sqoop從mysql匯入hive,在hive執行mysql的查詢語句,得到與mysql一樣的執行結果 步驟: mysql資料準備 account賬號表 detail收支資料表 CREATE TABLE
hive UDF 開發示例
一、建立一個java專案 對應的pom檔案 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xm
hive mapreduce script用法示例
2013-03-27 周海漢/文 2013.3.27 對於一些hql語句特殊處理,hive本身沒有提供相應功能,可以有兩種方式,一是mapreduce script,二是寫UDF,UDAF,UDTF等。後者需要呼叫hive提供
Hive java api示例
基於hadoop的Hive資料倉庫JavaAPI簡單呼叫的例項,關於Hive的簡介在此不贅述。hive提供了三種使用者介面:CLI,JDBC/ODBC和 WebUI CLI,即Shell命令列 JDBC/ODBC 是 Hive 的Java,與使用傳統資料庫JDBC的方式類似 WebG
PLSQL中關於包的一個示例
PLSQL有類似於JAVA中的介面的包,包的好處就是方便管理與理解, 並且對於學習JAVA的人來說,基本沒有語方法上的障礙,一看就知道 是這麼個東西,也好理解。 下面是一個示例: 需要的表:createtable test(tid number,tname varchar(5
Hive JDBC Java示例專案
一、搭建Hive JDBC開發環境 首先要啟動hive監聽程式 hive --service hiveserver & 預設埠10000 建立Maven工程 專案結構: 新建TestHiveJdbc工程 建立pom.xml
Azkaban實戰,Command型別單一job示例,任務中執行外部shell指令碼,Command型別多job工作flow,HDFS操作任務,MapReduce任務,HIVE任務
1.Azkaban實戰 Azkaba內建的任務型別支援command、java Command型別單一job示例 1、建立job描述檔案 vi command.job #command.job type=command
Hive之——整合MySQL儲存元資料資訊及基本操作示例
一、概述 Hive在實際工作過程中,需要一個統一的儲存媒介來儲存元資料資訊,這個儲存媒介通常可以是MySQL資料,那麼如何將Hive的元資料資訊儲存到MySQL中呢,今天,就帶著大家一起學習大資料入門系列的Hive篇——整合MySQL儲存元資料資訊。 二、環境整合 1、安
hive 外部表 建立示例
hdfs dfs -mkdir -p /external/sr/sr_createdhdfs dfs -mkdir -p /external/sr/sr_assignhdfs dfs -mkdir -p /external/sr/sr_cancelledhdfs df
使用Python實現Hive的UDF示例
主要分為兩個部分,一個部分為Python指令碼實現想要實現的功能,另外一個部分為HQL部分,呼叫Python指令碼對資料進行處理。HQL呼叫Python實現的UDF其實有一個重定向的過程,把資料表中之
oracle,通過plsql建立使用者表空間和所屬使用者示例
1)建立表空間: 先以oracle資料庫管理員的身份登入plsql,在plsql中新建sql命令框,在其中輸入如下語句,執行完畢即可建立一個表空間。 建立使用者表空間 建立表空間(一般建N個存資料的表空間和一個索引空間): CREATE TABLESPACE