openTSDB的分散式叢集的安裝和使用
1 安裝提前
確保安裝了jdk
確保安裝了hadoop叢集
確保安裝了hbase的叢集
本次在centos7上測試成功
192.168.100.200 master (zk、namenode、resourcemanager、HMaster、TSDMain)
192.168.100.201 slave1 (zk、datanode、nodemanager、HRegionServer、TSDMain)
192.168.100.202 slave2 (zk、datanode、nodemanager、HRegionServer、TSDMain)
說明:TSDMain即openTSDB的程序,openTSDB本身沒有分散式的實現方案,而是藉助於HBase的分散式叢集方案
也就是說,master、slave1、slave2三個物理節點之上的openTSDB訪問同一個HBase叢集,返回相同的資料映象
2 安裝gnuplot
Opentsdb執行需要gnuplot 外掛
[[email protected] local]# rpm -ivh gnuplot-common-4.6.2-3.el7.x86_64.rpm
3 驗證gnuplot的安裝以及png的安裝成功
[[email protected] bin]# gnuplot
gnuplot> set terminal png
4 安裝openTSDB
在三個節點上操作相同
[[email protected] local]# rpm –ivh opentsdb-2.3.0.rpm
初始表
修改配置檔案
[[email protected] home]# vi /etc/opentsdb/opentsdb.conf
tsd.core.auto_create_metrics = true
tsd.storage.hbase.zk_quorum = master,slave1,slave2
啟動
[[email protected] bin]# ./tsdb tsd --config=/usr/local/opentsdb/share/opentsdb/etc/opentsdb/opentsdb.conf
[[email protected] bin]# cd /usr/share/opentsdb/bin
[[email protected] bin]# chmod +x tsdb
[[email protected] bin]# ./tsdb tsd &
http://192.168.100.200:4242/
http://192.168.100.200:4242/
http://192.168.100.200:4242/
5 基本使用
opentsdb的java客戶端採用github上的開源專案https://github.com/OpenTSDB/opentsdb
在192.168.100.200節點存入資料
@Test
public void testPutData() {
OpentsdbClient client = new OpentsdbClient("http://192.168.100.200:4242");
try {
Map<String, String> tagMap = new HashMap<String, String>();
tagMap.put("host", "192.168.100.200");
client.putData("anysense-alarm", DateUtils.String2Date("20160627 12:15", "yyyyMMdd HH:mm"), 210l, tagMap);
} catch (Exception e) {
System.out.println(e.toString());
}
}
在192.168.100.201、192.168.100.202節點查詢
@Test
public void testGetData() {
OpentsdbClient client = new OpentsdbClient("http://192.168.100.202:4242");
try {
Filter filter = new Filter();
filter.setType("regexp");
filter.setTagk("host");
filter.setFilter("192.168.100.200");
filter.setGroupBy(Boolean.TRUE);
String resContent = client.getData("anysense-alarm", filter, Aggregator.avg.name(), "1h",
"2016-06-27 12:00:00", "2016-06-30 13:00:00");
System.out.println(resContent);
} catch (Exception e) {
e.printStackTrace();
}
}
相關推薦
OpenTSDB分散式叢集安裝
1 安裝前提 確保安裝了jdk 確保安裝了hadoop叢集 確保安裝了hbase的叢集 &n
kafka2.9.2的分散式叢集安裝和demo(java api)測試
問題導讀1、什麼是kafka?2、kafka的官方網站在哪裡?3、在哪裡下載?需要哪些元件的支援?4、如何安裝? 一、什麼是kafka? kafka是LinkedIn開發並開源的一個分散式MQ系統,現在是Apache的一個孵化專案。在它的主頁描述kafka為一個高吞吐量
zookeeper執行環境2、3:單節點安裝和偽分散式叢集安裝
轉載:http://www.aboutyun.com/thread-9097-1-1.html 問題導讀: 1.什麼是zookeeper 2.zookeeper有幾種安裝方式? 3.zookeeper偽分佈如何配置myid? 4.zookeeper包含哪些常用操作命令? 前
Hadoop本地模式、偽分散式和全分散式叢集安裝與部署
<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/
Kafka分散式叢集安裝
Kafka分散式叢集安裝 目錄 一、下載 二、安裝前提(zookeeper安裝) 三、安裝 2.1 上傳解壓縮 2.2 修改配置檔案 2.3 將kafka的安裝包分發到其他節點 2.4 建立軟連線 2.5 修改
【hadoop】hadoop完全分散式叢集安裝
文章目錄 前言 裝備 Core 總結 前言 後面準備更新hdfs操作(shell命令版本),hbase,hive的操作。 所以這裡先更新一下hadoop叢集安裝。 裝備 1.hadoop-2.6.5.tar.gz
03. CouchBase叢集安裝和配置(02)-CouchBase從0到50
4.叢集配置 couchbase叢集可以採用2種方式配置 直接ip叢集互聯 通過hostname叢集互聯 為了方便以後的維護和變更,我們採用hostname的進行配置。 首先確保三臺測試機之間網路互通,防護牆,selinux和埠之類的都配置ok了。 4.1 hosts設定 配置三臺機
分散式叢集安裝Hadoop
準備從節點(Slave) 通過想一下步驟準備好一個新的機器作為從節點(Slave),新增入叢集: 系統要求 OS: Linux (Ubuntu preferable) Admin accounter: hadoopAdmin Hostname: hadoop
Redis安裝 && 偽分散式叢集安裝
1.mkdir /usr/local/redis 2.cd /usr/local/src 3.tar -xzvf redis-4.0.8.tar.gz 4.ln -s redis-4.0.8 redis #建立一個連線 5.cd redis 6.(關鍵) make
storm概述、叢集安裝和簡單的命令列操作
http://storm.apache.org Apache Storm是一個免費的開源分散式實時計算系統。Storm可以輕鬆可靠地處理無限資料流,實現Hadoop對批處理所做的實時處理。Storm非常簡單,可以與任何程式語言一起使用,並且使用起 來很有趣! Storm有許多用例:實時分析,
Linux 下 Redis 分散式叢集安裝使用
這裡 Linux 選擇 CentOS 7.2。 1.安裝Redis單機版 # yum -y install gcc gcc-c++ autoconf automake //gcc、gcc-c++的庫檔案 # wget -P /usr/local ht
CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝
本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定
Centos7 實現Hadoop-2.9.1分散式叢集搭建和部署(三臺機器)
一、準備三臺虛擬機器hadoop 192.168.131.128 localhost131 192.168.131.131 localhost134 192.168.131.134(以上是我的三臺虛擬機器的hostname 和 ip)hadoop 是 master 的 hos
Hadoop分散式叢集安裝配置步驟
之前介紹過Hadoop偽分散式模式的安裝配置步驟,現在記錄一下分散式叢集的安裝配置步驟,本文使用3臺測試伺服器,下面是各伺服器的角色: - node1:NameNode, DataNode, NodeManager - node2:SecondaryNameNode,
hadoop學習第二天~Hadoop2.6.5完全分散式叢集搭建和測試
環境配置: 系統 centos7 節點 192.168.1.111 namenode 192.168.1.115 datanode2 192.168.1.116 datanode3 java 環境 :
Hadoop2.7.4分散式叢集安裝配置檔案
叢集環境 Hadoop版本為2.7.4 JDK版本1.8.0_144 安裝了三臺虛擬機器分別設定名稱和IP如下 主機名稱 IP地址 master 192.168.1.15 slave01 192.168.1.16
Spark叢集安裝和WordCount編寫
一、Spark概述 官網:http://spark.apache.org/ Apache Spark™是用於大規模資料處理的統一分析引擎。 為大資料處理而設計的快速通用的計算引擎。 Spark加州大學伯克利分校AMP實驗室。不同於mapreduce的是一個Sp
Hadoop:Hadoop單機偽分散式的安裝和配置
因為lz的linux系統已經安裝好了很多開發環境,可能下面的步驟有遺漏。之前是在docker中配置的hadoop單機偽分散式[ ],並且在docker只有root使用者,所有沒有許可權問題存在。這裡直接在linux下配置,主要是為了能用netbeans ide除錯had
CentOS6u9 Oracle11g RAC 搭建部署(三)叢集安裝和PSU補丁升級
6-叢集安裝: 1° 安裝grid: # 將安裝包上傳到某一個節點即可 chown grid: /tmp/p13390677_112040_Linux-x86-64_3of7.zip su - grid cd /tmp/ unzip p13390677_
hdfs偽分散式叢集搭建和部署詳解
大家好,這是我的第一篇技術部落格,也是第一篇部落格,請大家多多支援。我寫部落格的初衷無非是對所學知識的回顧和總結,同時能與廣大的讀者一起探討,共同進步,這是一件非常令人開心的事。 部落格的內容大都是大資料技術相關,今天要說的是hadoop,以後會可能還會更新