1. 程式人生 > >openTSDB的分散式叢集的安裝和使用

openTSDB的分散式叢集的安裝和使用

1  安裝提前

            確保安裝了jdk

            確保安裝了hadoop叢集

            確保安裝了hbase的叢集

    本次在centos7上測試成功

    192.168.100.200   master  (zk、namenode、resourcemanager、HMaster、TSDMain)  

    192.168.100.201   slave1    (zk、datanode、nodemanager、HRegionServer、TSDMain)

    192.168.100.202  slave2     (zk、datanode、nodemanager、HRegionServer、TSDMain)

   說明:TSDMain即openTSDB的程序,openTSDB本身沒有分散式的實現方案,而是藉助於HBase的分散式叢集方案

               也就是說,master、slave1、slave2三個物理節點之上的openTSDB訪問同一個HBase叢集,返回相同的資料映象

2 安裝gnuplot

          Opentsdb執行需要gnuplot 外掛

          [[email protected] local]# rpm -ivh gnuplot-common-4.6.2-3.el7.x86_64.rpm

          [[email protected]

local]# rpm -ivh gnuplot-4.6.2-3.el7.x86_64.rpm    

3 驗證gnuplot的安裝以及png的安裝成功

          [[email protected] bin]# gnuplot

          gnuplot> set terminal png

4 安裝openTSDB

         在三個節點上操作相同

         [[email protected] local]# rpm –ivh opentsdb-2.3.0.rpm

         初始表

         [[email protected]

opentsdb-2.3.0]# env COMPRESSION=NONE HBASE_HOME=/usr/local/hbase-1.3.0/ /usr/local/opentsdb/share/opentsdb/tools/create_table.sh

         修改配置檔案

        [[email protected] home]# vi /etc/opentsdb/opentsdb.conf 

        tsd.core.auto_create_metrics = true

        tsd.storage.hbase.zk_quorum = master,slave1,slave2

        啟動

        [[email protected] bin]# ./tsdb tsd  --config=/usr/local/opentsdb/share/opentsdb/etc/opentsdb/opentsdb.conf

        [[email protected] bin]# cd /usr/share/opentsdb/bin

        [[email protected] bin]# chmod +x tsdb

        [[email protected] bin]# ./tsdb tsd &

        http://192.168.100.200:4242/

        http://192.168.100.200:4242/

        http://192.168.100.200:4242/

5    基本使用


       opentsdb的java客戶端採用github上的開源專案https://github.com/OpenTSDB/opentsdb

       在192.168.100.200節點存入資料

    @Test
    public void testPutData() {
        OpentsdbClient client = new OpentsdbClient("http://192.168.100.200:4242");
        try {
            Map<String, String> tagMap = new HashMap<String, String>();
            tagMap.put("host", "192.168.100.200");
 
            client.putData("anysense-alarm", DateUtils.String2Date("20160627 12:15", "yyyyMMdd HH:mm"), 210l, tagMap);
            
 
        } catch (Exception e) {
            System.out.println(e.toString());
        }
    }

        在192.168.100.201、192.168.100.202節點查詢

    @Test
    public void testGetData() {
    	OpentsdbClient client = new OpentsdbClient("http://192.168.100.202:4242");
        try {
            Filter filter = new Filter();
            filter.setType("regexp");
            filter.setTagk("host");
            filter.setFilter("192.168.100.200");
            filter.setGroupBy(Boolean.TRUE);
            String resContent = client.getData("anysense-alarm", filter, Aggregator.avg.name(), "1h",
                    "2016-06-27 12:00:00", "2016-06-30 13:00:00");
            System.out.println(resContent);
 
        } catch (Exception e) {
            e.printStackTrace();
        }
    }


相關推薦

OpenTSDB分散式叢集安裝

1  安裝前提      確保安裝了jdk      確保安裝了hadoop叢集      確保安裝了hbase的叢集 &n

kafka2.9.2的分散式叢集安裝demo(java api)測試

問題導讀1、什麼是kafka?2、kafka的官方網站在哪裡?3、在哪裡下載?需要哪些元件的支援?4、如何安裝?  一、什麼是kafka?  kafka是LinkedIn開發並開源的一個分散式MQ系統,現在是Apache的一個孵化專案。在它的主頁描述kafka為一個高吞吐量

zookeeper執行環境2、3:單節點安裝分散式叢集安裝

轉載:http://www.aboutyun.com/thread-9097-1-1.html 問題導讀: 1.什麼是zookeeper 2.zookeeper有幾種安裝方式? 3.zookeeper偽分佈如何配置myid? 4.zookeeper包含哪些常用操作命令? 前

Hadoop本地模式、偽分散式分散式叢集安裝與部署

<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/

Kafka分散式叢集安裝

Kafka分散式叢集安裝 目錄 一、下載 二、安裝前提(zookeeper安裝) 三、安裝 2.1 上傳解壓縮 2.2 修改配置檔案 2.3 將kafka的安裝包分發到其他節點 2.4 建立軟連線 2.5 修改

【hadoop】hadoop完全分散式叢集安裝

文章目錄 前言 裝備 Core 總結 前言 後面準備更新hdfs操作(shell命令版本),hbase,hive的操作。 所以這裡先更新一下hadoop叢集安裝。 裝備 1.hadoop-2.6.5.tar.gz

03. CouchBase叢集安裝配置(02)-CouchBase從0到50

4.叢集配置 couchbase叢集可以採用2種方式配置 直接ip叢集互聯 通過hostname叢集互聯 為了方便以後的維護和變更,我們採用hostname的進行配置。 首先確保三臺測試機之間網路互通,防護牆,selinux和埠之類的都配置ok了。 4.1 hosts設定 配置三臺機

分散式叢集安裝Hadoop

準備從節點(Slave) 通過想一下步驟準備好一個新的機器作為從節點(Slave),新增入叢集: 系統要求 OS: Linux (Ubuntu preferable) Admin accounter: hadoopAdmin Hostname: hadoop

Redis安裝 && 偽分散式叢集安裝

1.mkdir /usr/local/redis 2.cd /usr/local/src 3.tar -xzvf redis-4.0.8.tar.gz 4.ln -s redis-4.0.8 redis #建立一個連線 5.cd redis 6.(關鍵) make

storm概述、叢集安裝簡單的命令列操作

http://storm.apache.org Apache Storm是一個免費的開源分散式實時計算系統。Storm可以輕鬆可靠地處理無限資料流,實現Hadoop對批處理所做的實時處理。Storm非常簡單,可以與任何程式語言一起使用,並且使用起 來很有趣! Storm有許多用例:實時分析,

Linux 下 Redis 分散式叢集安裝使用

這裡 Linux 選擇 CentOS 7.2。 1.安裝Redis單機版 # yum -y install gcc gcc-c++ autoconf automake //gcc、gcc-c++的庫檔案 # wget -P /usr/local ht

CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝

本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定

Centos7 實現Hadoop-2.9.1分散式叢集搭建部署(三臺機器)

一、準備三臺虛擬機器hadoop 192.168.131.128 localhost131 192.168.131.131 localhost134 192.168.131.134(以上是我的三臺虛擬機器的hostname 和 ip)hadoop 是 master 的 hos

Hadoop分散式叢集安裝配置步驟

之前介紹過Hadoop偽分散式模式的安裝配置步驟,現在記錄一下分散式叢集的安裝配置步驟,本文使用3臺測試伺服器,下面是各伺服器的角色:   - node1:NameNode, DataNode, NodeManager - node2:SecondaryNameNode,

hadoop學習第二天~Hadoop2.6.5完全分散式叢集搭建測試

環境配置: 系統 centos7 節點 192.168.1.111 namenode 192.168.1.115 datanode2 192.168.1.116 datanode3 java 環境 :

Hadoop2.7.4分散式叢集安裝配置檔案

叢集環境 Hadoop版本為2.7.4 JDK版本1.8.0_144 安裝了三臺虛擬機器分別設定名稱和IP如下 主機名稱 IP地址 master 192.168.1.15 slave01 192.168.1.16

Spark叢集安裝WordCount編寫

一、Spark概述 官網:http://spark.apache.org/ Apache Spark™是用於大規模資料處理的統一分析引擎。 為大資料處理而設計的快速通用的計算引擎。 Spark加州大學伯克利分校AMP實驗室。不同於mapreduce的是一個Sp

Hadoop:Hadoop單機偽分散式安裝配置

因為lz的linux系統已經安裝好了很多開發環境,可能下面的步驟有遺漏。之前是在docker中配置的hadoop單機偽分散式[ ],並且在docker只有root使用者,所有沒有許可權問題存在。這裡直接在linux下配置,主要是為了能用netbeans ide除錯had

CentOS6u9 Oracle11g RAC 搭建部署(三)叢集安裝PSU補丁升級

6-叢集安裝: 1° 安裝grid: # 將安裝包上傳到某一個節點即可 chown grid: /tmp/p13390677_112040_Linux-x86-64_3of7.zip su - grid cd /tmp/ unzip p13390677_

hdfs偽分散式叢集搭建部署詳解

    大家好,這是我的第一篇技術部落格,也是第一篇部落格,請大家多多支援。我寫部落格的初衷無非是對所學知識的回顧和總結,同時能與廣大的讀者一起探討,共同進步,這是一件非常令人開心的事。     部落格的內容大都是大資料技術相關,今天要說的是hadoop,以後會可能還會更新