Druid的傳送資料和查詢資料
目錄:
1、需求
2、參考
3、資料和配置
4、展現
5、注意事項
————————————————————————————–
1、需求
參考官網,使用Linux向Druid傳送資料和查詢資料
2、參考
配置來源 : 使用druid的預設配置檔案
/home/druid/druid-0.9.2/quickstart/wikiticker-index.json
3、資料和配置
1、將官網的資料中的日期修改為當前日期,我只修改了YYYY-MM-DD
2、將basicdata.json放入到HDFS,路徑為:/user/druid/basicdata.json
3、將預設配置的dimensions列名,修改為basicdata.json的列名
測試的資料 :basicdata.json
{"timestamp": "2017-03-17T01:02:33Z", "page": "Gypsy Danger", "language" : "en", "user" : "nuclear", "unpatrolled" : "true", "newPage" : "true", "robot": "false", "anonymous": "false", "namespace":"article", "continent":"North America", "country":"United States", "region":"Bay Area" , "city":"San Francisco", "added": 57, "deleted": 200, "delta": -143}
{"timestamp": "2017-03-17T03:32:45Z", "page": "Striker Eureka", "language" : "en", "user" : "speed", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Australia", "country ":"Australia", "region":"Cantebury", "city":"Syndey", "added": 459, "deleted": 129, "delta": 330}
{"timestamp": "2017-03-17T07:11:21Z", "page": "Cherno Alpha", "language" : "ru", "user" : "masterYi", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"article", "continent":"Asia", "country":"Russia", "region":"Oblast", "city":"Moscow", "added": 123, "deleted": 12, "delta": 111}
{"timestamp": "2017-03-17T11:58:39Z", "page": "Crimson Typhoon", "language" : "zh", "user" : "triplets", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"China", "region":"Shanxi", "city":"Taiyuan", "added": 905, "deleted": 5, "delta": 900}
{"timestamp": "2017-03-17T12:41:27Z", "page": "Coyote Tango", "language" : "ja", "user" : "cancer", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"Japan", "region":"Kanto", "city":"Tokyo", "added": 1, "deleted": 10, "delta": -9}
測試的配置: data_schema.json
{
"type" : "index_hadoop",
"spec" : {
"ioConfig" : {
"type" : "hadoop",
"inputSpec" : {
"type" : "static",
"paths" : "/user/druid/basicdata.json"
}
},
"dataSchema" : {
"dataSource" : "silentwolf",
"granularitySpec" : {
"type" : "arbitrary",
"segmentGranularity" : "day",
"queryGranularity" : "none",
"intervals" : ["2017-03-17/2017-03-18"]
},
"parser" : {
"type" : "hadoopyString",
"parseSpec" : {
"format" : "json",
"dimensionsSpec" : {
"dimensions" : [
"page",
"language",
"user",
"unpatrolled",
"newPage",
"robot",
"anonymous",
"namespace",
"continent",
"country",
"region",
"city"
]
},
"timestampSpec" : {
"format" : "auto",
"column" : "timestamp"
}
}
},
"metricsSpec" : [
{
"name" : "count",
"type" : "count"
},
{
"name" : "added",
"type" : "longSum",
"fieldName" : "added"
},
{
"name" : "deleted",
"type" : "longSum",
"fieldName" : "deleted"
},
{
"name" : "delta",
"type" : "longSum",
"fieldName" : "delta"
}
]
},
"tuningConfig" : {
"type" : "hadoop",
"jobProperties" : {}
}
}
}
測試的查詢配置:queryall.json
{
"queryType": "timeseries",
"dataSource": "silentwolf",
"intervals": [ "2017-03-17/2017-03-18" ],
"granularity": "day",
"aggregations": [
{"type": "count", "name": "count"},
{ "name" : "deleted","type" : "longSum", "fieldName" : "deleted"},
{ "name" : "delta","type" : "longSum","fieldName" : "delta"}
]
}
4、展現
傳送命令
[root@tagtic-master boke]# curl -X 'POST' -H 'Content-Type: application/json' -d @data_schema.json tagtic-master:18090/druid/indexer/v1/task
查詢命令
[root@tagtic-master boke]# curl -X POST 'tagtic-slave01:18082/druid/v2/?pretty' -H 'Content-Type:application/json' -d @queryall.json
傳送、查詢、資料展現
資料傳送狀態
5、注意事項
1、找到Druid叢集中broker的server和埠,我的broker的埠為18082
[[email protected] yuhui]# ps -ef | grep broker
druid 52680 52675 1 2月20 ? 06:31:04 java -server -Xms16g -Xmx16g -XX:MaxDirectMemorySize=4096m -Duser.timezone=UTC -Dfile.encoding=UTF-8 -Djava.io.tmpdir=var/tmp -Djava.util.logging.manager=org.apache.logging.log4j.jul.LogManager -cp conf/druid/_common:conf/druid/broker:lib/* io.druid.cli.Main server broker
root 89216 67823 0 17:03 pts/0 00:00:00 grep --color=auto broker
2、測試資料要放到HDFS上面
3、dimensions中的列名不要和metricsSpec中的name一樣
如果您喜歡我寫的博文,讀後覺得收穫很大,不妨小額贊助我一下,讓我有動力繼續寫出高質量的博文,感謝您的讚賞!!!
相關推薦
Druid的傳送資料和查詢資料
目錄: 1、需求 2、參考 3、資料和配置 4、展現 5、注意事項 ————————————————————————————– 1、需求 參考官網,使用Linux向Druid傳送資料和查詢資料 2、參考 配
Sqlite3插入資料和查詢資料
1. //表單:Record(USN+有線MAC地址+無線MAC地址) //查詢 #define QUERY_SQL_SN "SELECT * FROM Record WHERE USN = '%s'" #define QUERY_SQL_MAC "SELECT * FRO
JDBC連結本地MySQL資料庫,建立表結構並新增資料和查詢資料
首先我們要下載JDBC的jar包,本專案中jar放在了lib目錄中,大家可以直接使用我這個mysql-connector-java-5.1.42-bin.jar包。 然後新增一個Main,使用JDBC連結MySQL資料庫,建立表結構並新增資料和查詢資料 具體
robotframework 學習(2) :使用RIDE進行介面測試之傳送請求和接收資料斷言
一、RIDE的介紹: RIDE是robotframework圖形操作前端,也可以理解為一種編輯器,它以cell的形式來進行定義資料和方法,返回結果等,我們可以使用它進行建立測試用例和編寫測試指令碼,並且執行自動化測試。
plsql 查詢blob資料和clob資料型別
好幾次遇到這個問題,只是沒有記錄,這次終於記得要把這點東西給記錄下來 select t.id,t.certdn,t.algo,utl_raw.cast_to_varchar2(dbms_lob.substr(t.plaintext)) plaintext from db_s_
oracle中從4個表查詢資料並插入到另一張表裡 擴充套件到查詢到的資料和其他資料共同插入
因為業務的需要,現在需要查詢4個表裡的資料並插入到另一個表內且對應自己想要對應的列。 且表的id應該是根據序列自動生成。 具體建立序列什麼的都不說了,直接上程式碼,欄位都沒改,最近太忙了。 insert into TB_POST_REQUIRE_INFO (id, BE
unity網路實戰開發(叢林戰爭)-前期知識準備(003-開發伺服器端的傳送資料和接收資料)
使用工具:VS2015使用語言:c#作者:Gemini_xujian參考:siki老師-《叢林戰爭》視訊教程繼上一篇文章內容,這節課講解一下伺服器端的傳送資料和接收資料。上篇文章完成了ip和埠號的繫結,接下來,我們首先需要監聽埠並接收客戶端的連線serverSocket.Li
Python爬蟲之requests庫(三):傳送表單資料和JSON資料
import requests 一、傳送表單資料 要傳送表單資料,只需要將一個字典傳遞給引數data payload = {'key1': 'value1', 'key2': 'value
sql server 統計資料庫中某個欄位的值,剔除重複資料和查詢重複的資料
1.有的時候,在資料庫中存在一些重複的資料,但是我們又想統計某個欄位的值,重複的要剔除掉,如圖所示: 在上面的圖我們可以看到,id=2,3 id=4,5的4條資料都重複了,我們統計amount只要其
Solr記錄-solr檢索和查詢資料
Solr檢索資料在本章中,我們將討論如何使用Java Client API檢索資料。假設有一個名為sample.csv的.csv文件,其中包含以下內容。001,9848022337,Hyderabad,Rajiv,Reddy 002,9848022338,Kolkata,
Hibernate中使用HQLQuery查詢全部資料和部分資料
package com.lc.view; import java.util.Iterator; import java.util.List; import org.hibernate.Session; import org.hibernate.Transaction;
STM32串列埠傳送資料和接收資料方式總結
之前寫了篇關於ESP8266使用AT指令進行互相通訊的實驗,在寫STM32串列埠接發資料的程式中,覺得有必要將之前學的有關於串列埠方面的使用經歷加以總結。 串列埠傳送資料: 1. 串列埠傳送資料最直接的方式就是標準呼叫庫函式 。 void
分別使用PreparedStatement和Statement對mysql資料庫進行建立表,增加資料,查詢資料和刪除資料過程
在使用eclipse工具編寫Java程式碼連線資料庫並對資料庫進行處理時,總會用到對資料的增刪改查操作。那麼這個 時候就用到了java自帶的sql庫中的PreparedStatement或者Statement了。 其實PreparedStatement和Statement使
java中從控制檯輸入資料和輸出資料到控制檯
1.從控制檯輸入資料 1.使用Scanner類來完成從命令列輸入資料到自己的程式中。 2.Scanner類是JDK1.5【jdk5.0】新增的一個開發類庫。 3.Scanner類使用 3.1先匯入Scanner類所在的程式包【java.util.Sca
ElasticSearch 學習記錄之 分散式文件儲存往ES中存資料和取資料的原理
分散式文件儲存 ES分散式特性 遮蔽了分散式系統的複雜性 叢集內的原理 垂直擴容和水平擴容 真正的擴容能力是來自於水平擴容–為叢集新增更多的節點,並且將負載壓力和穩定性分散到這些節點中 ES叢集特點 一個叢集擁有相同
【ArcGIS|空間分析】柵格資料和向量資料的面積計算
柵格向量資料計算面積之前,都需要將資料進行投影轉換,設定單位以方便計算。 文章目錄 1、柵格資料面積計算 方法一:新增欄位並計算 方法二:以表格顯示分割槽統計 2、 向量資料面積計算 1、柵格資料
SQL Server插入資料和刪除資料
首先在我的Student表中插入幾條資料,由於我的表已經建立完成了,所以就沒有建立表的 sql 語句了,不過可以看我的上一篇文章: http://www.cnblogs.com/Brambling/p/6649350.html 插入資料sql語句: 1 insert into Student(S
Android使用上下文獲取資料和寫入資料
本文是在上一篇博文的基礎上使用上下文儲存使用者名稱和密碼,讀取使用者名稱和密碼的 上一篇博文連結:https://blog.csdn.net/liyunfu233/article/details/84072958 下面是和上一篇博文不同之處,因為修改了儲存資料和讀取資料的形參,所以在Main
風火程式設計--python獲取單隻股票實時資料和歷史資料
獲取股票資料 這本來是專門為我的一個單一選股模型提供資料的類, 因此封裝的只是模型中需要的資料. 如有其它需求可以自己擴充套件. 積分多的可以下載檔案, 沒積分的直接複製下面的程式碼是一樣的. 程式碼不復雜, 一看就懂. 歡迎加qq或微信(77245741)共同探討. # cod
定時備份指令碼分享(網站資料和資料庫資料)
1)網站資料備份 將網站資料/var/www/vhost/www.hqsb.com和/var/www/vhost/www.huanqiu.com分別備份到: /Data/code-backup/www.hqsb.com和/Data/code-backup/www.huanqiu.com下。 &nbs