1. 程式人生 > >Kafka安裝操作文件(詳細)

Kafka安裝操作文件(詳細)

安裝配置【機器3臺:cdh-yhte01-031、下載kafka_2.9.2-0.8.1.1.tgz(http://mirrors.cnnic.cn/apache/kafka/0.8.1.1/kafka_2.9.2-0.8.1.1.tgz)2、 解壓 tar -zxvf kafka_2.9.2-0.8.1.1.tgz3、 確認zookeeper已啟動        [[email protected] ~]# ps -ef | grep zookeeper 4、修改配置檔案 config/server.properties  host.name=cdh-yhte01            log.dirs=/usr/local/kafka/kafka-logs            zookeeper.connect=cdh-yhte01:2181,cdh-yhte02:2181,cdh-yhte03:2181不配置host.name的話,傳送資訊時會出現以下錯誤:
kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.        at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:90)        at kafka.producer.async.ProducerSendThread.tryToHandle(ProducerSendThread.scala:104)        at kafka.producer.async.ProducerSendThread$$anonfun$processEvents$3.apply(ProducerSendThread.scala:87)        at kafka.producer.async.ProducerSendThread$$anonfun$processEvents$3.apply(ProducerSendThread.scala:67)        at scala.collection.immutable.Stream.foreach(Stream.scala:526)        at kafka.producer.async.ProducerSendThread.processEvents(ProducerSendThread.scala:66)        at kafka.producer.async.ProducerSendThread.run(ProducerSendThread.scala:44)5、啟動kafka            bin/kafka-server-start.sh config/server.properties &6、部署到其他機器[
[email protected]
local]# tar -zcvf kafka.tar.gz kafka[[email protected] local]# scp kafka.tar.gz cdh-yhte02:/usr/local                解壓後按如下步驟操作:            修改配置檔案 config/server.properties            【cdh-yhte02】    broker.id=2    port=9092    //埠可以不修改,只有配置在一臺機器的時候需要修改    host.name=cdh-yhte02            【cdh-yhte03】    broker.id=3    port=9093    host.name=cdh-yhte037、啟動02、03機器上的kafka            bin/kafka-server-start.sh config/server.properties &建立一個主題
[[email protected] bin]# ./kafka-topics.sh --create --zookeeper cdh-yhte01:2181 --replication-factor 1 --partitions 2 --topic TestKafaCreated topic "TestKafa".        (建立主題後,在另外兩臺機器上都能看到,why?)[[email protected] bin]# ./zookeeper-shell.sh cdh-yhte02:2181Connecting to cdh-yhte02:2181Welcome to ZooKeeper!JLine support is disabledWATCHER::WatchedEvent state:SyncConnected type:None path:nullls /[hbase, zookeeper, admin, consumers, config, controller, brokers, controller_epoch]ls /brokers/topics[TestKafa][[email protected] bin]# ./zookeeper-shell.sh cdh-yhte03:2181Connecting to cdh-yhte03:2181Welcome to ZooKeeper!JLine support is disabledWATCHER::WatchedEvent state:SyncConnected type:None path:nullls /brokers/topics[TestKafa]檢視一個主題[[email protected] bin]# ./kafka-topics.sh --list --zookeeper cdh-yhte01:2181TestKafa檢視詳細資訊[[email protected] bin]# ./kafka-topics.sh --describe --zookeeper cdh-yhte01:2181Topic:GCSJ PartitionCount:3 ReplicationFactor:3 Configs:Topic: GCSJ Partition: 0 Leader: 1 Replicas: 1,2,3 Isr: 1,2,3Topic: GCSJ Partition: 1 Leader: 2 Replicas: 2,3,1 Isr: 2,3,1Topic: GCSJ Partition: 2 Leader: 3 Replicas: 3,1,2 Isr: 3,1,2
  • leader:負責處理訊息的讀和寫,leader是從所有節點中隨機選擇的.
  • replicas:列出了所有的副本節點,不管節點是否在服務中.
  • isr:是正在服務中的節點.
刪除一個主題[[email protected] bin]# ./kafka-topics.sh --list --zookeeper cdh-yhte01:2181TestKafa[[email protected] bin]# ./kafka-run-class.sh kafka.admin.DeleteTopicCommand --topic TestKafa --zookeeper cdh-yhte01:2181deletion succeeded![email protected]:/usr/local/bigdata/kafka_2.11-0.10.0.0/bin# ./kafka-topics.sh --zookeeper node01:2181 --delete --topic CHENLEITopic CHENLEI is marked for deletion.Note: This will have no impact if delete.topic.enable is not set to true.[email protected]:/usr/local/bigdata/kafka_2.11-0.10.0.0/bin# ./kafka-topics.sh --zookeeper node01:2181 --delete --topic CHENLEITopic CHENLEI is already marked for deletion.驗證是否刪除[[email protected] bin]# ./zookeeper-shell.sh cdh-yhte01:2181Connecting to cdh-yhte01:2181Welcome to ZooKeeper!JLine support is disabledWATCHER::WatchedEvent state:SyncConnected type:None path:nullls /[hbase, zookeeper, admin, consumers, config, controller, brokers, controller_epoch]ls /brokers[topics, ids]ls /brokers/topics[]向主題寫入資料./kafka-console-producer.sh --broker-list cdh-yhte01:9091 --sync --topic TestKafa從主題取出資料./kafka-console-consumer.sh --zookeeper node01:2181 --topic CHENLEI --from-beginning檢視消費者位置:bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zkconnect cdh-yhte01:2181  --group group1[[email protected] bin]# ./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zkconnect cdh-yhte01:2181 --group group1Group     Topic     Pid     Offset     logSize     Lag     Ownergroup1     YHTE02 0         41               44         3         none[[email protected] bin]# ./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zkconnect cdh-yhte01:2181 --group group1Group     Topic     Pid     Offset     logSize     Lag     Ownergroup1 YHTE02     0         44             44             0     group1_leichen-1413446167433-a9b95fe0-0auto.offset.reset:如果zookeeper沒有offset值或offset值超出範圍。那麼就給個初始的offset。有smallest、largest、anything可選,分別表示給當前最小的offset、當前最大的offset、拋異常。預設largest1、資料流將被劃分成獨立的部分(partitions)。這個語義是將劃分的過程留給了producer,producer來指定一個訊息屬於哪個部分。在一個partition中,訊息是按照接受順序排序的,並且會以相同的順序傳送給consumer。這意味著我們需要記錄 每一部分(consumer、topic、and partition)的“high water mark”。 2、在kafka中,high-water mark 以“offset”的形式記錄,這對於各方面來說將變的非常清晰。在kafka中,consumer將保持記錄已經處理的訊息狀態(offset),consumer會將這些記錄資訊寫到zookeeper中,但是如果把這些資訊儲存到consumer正在寫入資料的資料庫會更好,例如:consumer可能會簡單將一些統計資訊寫到OLTP資料庫。這樣 consumer可以把狀態資訊寫到正在進行事務操作的資料庫,這樣解決了分散式一致性問題。很多應用場景下,可以講consumer儲存的狀態資訊(offset)同步到別的地方(如搜尋系統的索引欄位裡,HDFS中),這樣,如果consumer掛了,還能從上次處理的記錄的offset繼續,避免重複處理。另外,這種機制還可以這樣用,直接從頭開始處理,雖然會有出發處理,但是有些場景確實需要這樣做。例如:發現處理過程有BUG,等BUG修復了可以從頭開始處理。

相關推薦

Kafka安裝操作詳細

安裝配置【機器3臺:cdh-yhte01-03】1、下載kafka_2.9.2-0.8.1.1.tgz(http://mirrors.cnnic.cn/apache/kafka/0.8.1.1/kafka_2.9.2-0.8.1.1.tgz)2、 解壓 tar -zxvf k

KAFKA 1.0 :生產者配置

從0.11.0.0開始生產者配置block.on.buffer.full,metadata.fetch.timeout.ms和timeout.ms已被刪除。 以下是Java生產者的配置: name description default

list的基本操作 1.1

文件(list)的基本操作1.文件的讀操作 基本格式: f=open(‘文件名‘,‘r‘,encoding=‘utf-8‘)以這種形式打開的文件只能進行 讀 操作 f=open(‘believe‘,‘r‘,encoding=‘utf-8‘) # 只讀 date=f.read() print(date)

mybatis源碼-解析配置之配置Configuration解析(超詳細, 值得收藏)

類型 version 創建對象 越來越大 ... 所有 類名 對象 and 1. 簡介 1.1 系列內容 本系列文章講解的是mybatis解析配置文件內部的邏輯, 即 Reader reader = Resources.getResourceAsReader("mybat

vue修飾符--可能是東半球最詳細滑稽

為了方便大家寫程式碼,vue.js給大家提供了很多方便的修飾符,比如我們經常用到的取消冒泡,阻止預設事件等等~ 目錄 表單修飾符 事件修飾符 滑鼠按鍵修飾符 鍵值修飾符 v-bind修飾符(實在不知道叫啥名字) 表單修飾

Linux 安裝Hadoop 3.0操作~很詳細

今天嘗試安裝Hadoop,為接下來學習Hadoop做好準備。 一、準備環境 1.1、檢視作業系統的版本 [[email protected] ~]# cat /etc/redhat-release Red Hat Enterprise Linux Serve

elasticsearch-java api之document各種操作

使用java api和es互動時,可以是json字串、map物件;es中內建Jackson json序列化機制,可以將自定義物件轉成string或者byte,然後傳給es-java api使用。 1、新增document: public static bool

Java【Java開發整合 Swagger UI生成可檢視的API詳細圖解

目前幾乎所有的開放平臺都是把API以文件的形式放在網站上,如下: 不知道有沒有開發人員和我一樣,有時對一些API說明的理解比較模糊,總想著能直接驗證一下自己的理解就好了,而不是需要去專案

SpringMVC+Swagger UI生成可檢視的API詳細圖解

Swagger UI 關於Swagger UI官方解釋是這樣的:The Swagger UI is an open source project to visually render documentation for a Swagger defined AP

kafka 1.0 中文--Broker的配置

3.1 Broker Configs 基本配置如下:    1. broker.id    2. log.dirs    3. zookeeper.connect 下面將更詳細地討論主題級別的配置和預設設定。 名稱 描述 型別

kafka3----0.8.2-kafka APIjava版本

    Apache Kafka包含新的java客戶端,這些新的的客戶端將取代現存的Scala客戶端,但是為了相容性,它們仍將存在一段時間。可以通過一些單獨的jar包呼叫這些客戶端,這些包的依賴性都比較小,同時老的Scala客戶端仍會存在。 一、Producer

openstackkilo安裝部署最小化安裝,單機安裝

前言 之前在centos上安裝了一個版本,是使用的一鍵安裝,devstack來安裝的,這個安裝後很多細節都不太清楚,所以決定手動走一邊安裝過程。 我這裡使用的是一臺物理機進行的安裝,IP 為10.1.82.161,安裝的是最小集合,只安裝了keystone,

Java中使用freemarker匯出word詳細案例,含圖片和表格

Java中使用freemarker匯出word文件(自己真實專案案例) 最近做了一個專案,有一個需求是要將職員的一些資料按照指定的樣式匯出成一個word文件出來,由於自己是一個Java小白,不懂,於是便在網上找方法,網上介紹的有很多,因為原來用poi匯出過pp

kafka4---- 0.8.2-Configuration-配置選項翻譯

來源:http://kafka.apache.org/documentation.html#configuration 3.     Configuration Kafka在配置檔案中使用key-value方式進行屬性配置。這些values可以通過檔案或者程式設計方式提

kafka13----0.10.1-Document-5-configures-consumer配置資訊

In 0.9.0.0 we introduced the new Java consumer as a replacement for the older Scala-based simple and high-level consumers. The configs f

Kafka2----0.8.2- 基本介紹Getting Start

來源: 說明: 原文中某些專有名詞不做翻譯: kafka topic partition consumer producer server client high-level 1、開始 1.1 介紹kafka可提供分散式、分割槽的、可備份的日誌提交服務,同時也是設計

安裝Solidity編譯器-Solidity官方2

寫在前面:HiBlock區塊鏈社群成立了翻譯小組(以太坊中文社群),翻譯區塊鏈相關的技術文件及資料,本文為Solidity官方文件翻譯的第二部分《安裝Solidity編譯器》,特釋出出來邀請solidity愛好者、開發者做公開的審校,您可以新增微信baoba

python-docx操作word*.docx

tin comment turn spl end nta document .sh font 目錄 基礎操作 對象關系 添加樣式 中文字體微軟雅黑,西文字體Times Ne

java刪除夾下面的所有

str try 一個 ... cmd 刪除一個文件 文件夾 style exec 原文地址:http://blog.csdn.net/smach1991710/article/details/9175757 刪除一個文件夾下面的所有文件,一種調用遞歸算法,一種調用windo

NFC技術:使用Android Beam技術傳輸

imp 圖片 .com fault gen catch ret generate puts 1 public class MainActivity extends ActionBarActivity implements 2 CreateBeamUr