1. 程式人生 > >storm讀取kafka叢集各個叢集節點資訊

storm讀取kafka叢集各個叢集節點資訊

功能:
從kafka叢集的各個節點讀取訊息,
負載均衡的負責各個topic的各個partition的資料的讀取
支援事務,可以重發失敗的message
程式碼閱讀:
重要物件:
Map stateCconf:儲存kafka消費者資訊的zookeeper配置資訊.
ZkState _state:提供從zookeeper讀寫kafka消費者資訊功能.
DynamicPartitionConnections _connections:儲存到kafka各個節點的連線,以及負責的topic的partition號碼
PartitionCoordinator _coordinator:建立並儲存partitionManager

PartitionManager:負責批量傳送訊息,負責維持kafka各個partition的訊息被成功處理的位置。

說明:contrib-kafka 

master branch中的的程式碼已經是針對storm-0.9.2的版本的

scala-2.9.2 branch中的程式碼是針對storm-0.8.x版本的

我這裡上面的解析是針對storm-0.9.2版本的contrib-kafka程式碼的解析

相關推薦

storm讀取kafka叢集各個叢集節點資訊

功能:從kafka叢集的各個節點讀取訊息,負載均衡的負責各個topic的各個partition的資料的讀取支援事務,可以重發失敗的message程式碼閱讀:重要物件:Map stateCconf:儲存kafka消費者資訊的zookeeper配置資訊.ZkState _sta

使用kubectl檢視Kubernetes叢集裡的node節點資訊

使用命令列拿到當前Kubernetes叢集的所有節點: kubectl get nodes 檢視某個節點的明細: kubectl describe node shoot--k8s-train--shacw46-worker-l9qsr-z1-5869bb9948-4c

Ubuntu 搭建hadoop叢集成功,但MobaXterm無法遠端連線叢集各個節點

由於我是在VMware上 使用的ubuntu系統,因此解決這個問題需要先了解一下VMware三種網路工作模式: 我們可以看到有VMnet0(橋接模式)、VMnet1(僅主機模式)、VMnet8(NAT模式)其中: VMnet0表示的是:用於橋接模式下的虛擬交換機;

讀取Kafka叢集的訊息

[[email protected]_xps_13 bin]$ ./zookeeper-server-start.sh ../config/zookeeper.properties [2016-04-29 16:03:41,484] INFO Reading configuration from:

kafka叢集下線broker節點實踐方法

kafka叢集 broker 0(10.11.32.76    hadooptest76.bj) broker 1(10.11.32.77    hadooptest77.bj) broker 2(10.11.32.81    hadooptest81.bj) 操作任務:下

kafka安裝教程 -- 單節點-單Broker叢集:只在一個節點上部署一個Broker

①安裝jdk:  yum install java-1.8.0-openjdk.x86_64 ②.去官網下載kafka_2.12-0.11.0.0.tgz ③.上傳檔案並解壓壓縮檔案到/opt目錄下 [[email protected] /]# tar -xv

搭建solrCloud時,Graph中沒有叢集節點資訊

1.首先檢查Cloud功能是否開啟並檢查Cloud下Tree是否有節點資訊,如果未開啟或Tree無節點資訊。 2.檢視solr.log和zookeeper.out日誌查詢原因,看一看是不是zookeeper或者solr配置錯誤。 3.如果以上都不是,更換f

Storm+HBASE+MySQL 實時讀取Kafka資訊計算儲存

本文是通過Storm將生產出來的資料進行實時的計算統計,整理出來之後將資料寫到hbase和mysql資料中,並將結果展示在前端頁面上,頁面展示部分在下一篇說明 題目要求 一、機組執行資料清洗規則

Spark Streaming +Kafka 使用底層API直接讀取Kafka的Partition資料,手動更新Offset到Zookeeper叢集

Spark Streaming  +Kafka 使用底層API直接讀取Kafka的Partition資料,正常Offset儲存在CheckPoint中。但是這樣無法實現Kafka監控工具對Kafka的監控,所以手動更新Offset到Zookeeper叢集中

動態從zookeeper中讀取kafka叢集

 Kafka is a distributed,partitioned,replicated commit logservice。它提供了類似於JMS的特性,但是在設計實現上完全不同,此外它並不是JMS

檢視叢集基本情況(重要)!! 檢視hadoop叢集有多少節點(hdfs fsck /)

[email protected]:~$ hdfs fsck /    Connecting to namenode via http://localhost:9870/fsck?ugi=liugen&path=%2F FSCK started by li

kubernetes 叢集新增node 節點並將應用分配到新增節點

第一章 1.重新安裝一臺kubernetes node節點,新增節點:192.168.1.192  網址:https://www.cnblogs.com/zoulixiang/p/9504324.html     第二章 1.將nginx ,mysql 應用分配到

Solr叢集新增/刪除節點

叢集環境搭建好之後,確保叢集已經啟動成功。 ps:本篇文章的操作都是通過http請求來對進行的,錯誤和不足之處還望補充指正,謝謝! 新增一個節點:得先有存活的solr例項,還沒被新增到當前collection中 例: http://192.168.217.129:

greenplum 叢集新增 standby節點

greenplum 單獨新增 standby 本文主要介紹如何為沒有做Standby的Master節點新增Standby。(快速整理版) 舊版本gp叢集需要注意!!!! 在為Master節點搭建Standby的過程中,GreenPlum會自動關閉資料庫,並以utility模式開啟Master節點,然後修

【譯】Apache Kafka支援單叢集20萬分區

  之前網上關於確定Kafka分割槽數的部落格多多少少都源自於饒軍大神的文章,如今他帶來了這方面的第二篇文章,特此翻譯一下,記錄一下其中的要點。   原貼地址: https://www.confluent.io/blog/apache-kafka-supports-200k-partitions-

本地搭建hadoop叢集-hive多節點訪問(hive2.3.3)

一、思路 1.安裝hadoop叢集。我這裡使用的是自己編譯的2.7.6 2.元資料使用mysql作為技術支撐 3.配置hive引數分發至各個節點 4.hive服務端啟動 5.各個節點hive客戶端訪問   二、mysql的安裝 rpm -q mysq

0110-如何給Kerberos環境下的CDH叢集新增Gateway節點

Fayson的github: https://github.com/fayson/cdhproject 1.文件編寫目的 Gateway節點又稱為客戶端節點,通常用作訪問Hadoop叢集的介面機。它主要會部署一些客戶端的配置,指令碼命令,比如HDFS的core-site.xml,hdfs-site.xml

Kubernetes叢集的主節點備份與恢復

通常安裝模式下(如使用kubeadm)的Kubernetes叢集,主節點(Master)只有一個,而且叢集資料儲存服務etcd也只運行了一個例項。如果遇到極端情況(如整機故障、主硬碟損壞、資料誤刪除等)導致master節點無法訪問,則整個叢集都將無法訪問或出現異常現象。所以master節點機器效能要求不一定很

redis 叢集新增新節點

準備好需要新增的節點:如何建立節點 啟動建立的節點: 啟動成功: 新增新節點:redis-cli --cluster add-node 127.0.0.1:7006 127.0.0.1:7000  第一個ip:port 為需要新增的節點ip和埠,第二個ip:port為當前叢集中的節點和

解決 Prometheus 不能獲取 Kubernetes 叢集上 Windows 節點的 Metrics

背景 接上一篇 快速搭建 Windows Kubernetes , 我們發現原來在 Windows Kubernetes 會有一些與在 Linux 上使用不一樣的體驗,俗稱坑,例如 hostAliases。對於我們希望真的把 Windows 放入生產,感覺除了基本的 Pod、Volume、Service 、L