kafka partition(分割槽)與 group
一、
1、原理圖
2、原理描述
一個topic 可以配置幾個partition,produce傳送的訊息分發到不同的partition中,consumer接受資料的時候是按照group來接受,kafka確保每個partition只能同一個group中的同一個consumer消費,如果想要重複消費,那麼需要其他的組來消費。Zookeerper中儲存這每個topic下的每個partition在每個group中消費的offset
新版kafka把這個offsert儲存到了一個__consumer_offsert的topic下
這個__consumer_offsert 有50個分割槽,通過將group的id雜湊值%50的值來確定要儲存到那一個分割槽. 這樣也是為了考慮到zookeeper不擅長大量讀寫的原因。
所以,如果要一個group用幾個consumer來同時讀取的話,需要多執行緒來讀取,一個執行緒相當於一個consumer例項。當consumer的數量大於分割槽的數量的時候,有的consumer執行緒會讀取不到資料。
假設一個topic test 被groupA消費了,現在啟動另外一個新的groupB來消費test,預設test-groupB的offset不是0,而是沒有新建立,除非當test有資料的時候,groupB會收到該資料,該條資料也是第一條資料,groupB的offset也是剛初始化的ofsert, 除非用顯式的用–from-beginnging 來獲取從0開始資料
3、檢視topic-group的offsert
位置:zookeeper
路徑:[zk: localhost:2181(CONNECTED) 3] ls /brokers/topics/__consumer_offsets/partitions
在zookeeper的topic中有一個特殊的topic __consumer_offserts
計算方法:(放入哪個partitions)
int hashCode = Math.abs("ttt".hashCode());
int partition = hashCode % 50;
先計算group的hashCode,再除以分割槽數(50),可以得到partition的值
使用命令檢視: kafka-simple-consumer-shell.sh --topic __consumer_offsets --partition 11 --broker-list localhost:9092,localhost:9093,localhost:9094 --formatter "kafka.coordinator.GroupMetadataManager\$OffsetsMessageFormatter"
4.引數
auto.offset.reset:預設值為largest,代表最新的訊息,smallest代表從最早的訊息開始讀取,當consumer剛開始建立的時候沒有offset這種情況,如果設定了largest,則為當收到最新的一條訊息的時候開始記錄offsert,若設定為smalert,那麼會從頭開始讀partition
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
import
kafka.producer.Partitioner;
import
kafka.utils.VerifiableProperties;
public
class
JasonPartitioner<T>
implements
Partitioner {
public
JasonPartitioner(VerifiableProperties verifiableProperties) {}
@Override
public
int
partition(Object key,
int
numPartitions) {
try
{
int
partitionNum = Integer.parseInt((String) key);
return
Math.abs(Integer.parseInt((String) key) % numPartitions);
}
catch
(Exception e) {
return
Math.abs(key.hashCode() % numPartitions);
}
}
}
|
如果將上例中的類作為partition.class,並通過如下程式碼傳送20條訊息(key分別為0,1,2,3)至topic3(包含4個Partition)。
1 2 3 4 5 6 7 8 9 10 |
public
void
sendMessage()
throws
InterruptedException{
for
(
int
i =
1
; i <=
5
; i++){
List messageList =
new
ArrayList<KeyedMessage<String, String>>();
for
(
int
j =
0
; j <
4
; j++){
messageList.add(
new
KeyedMessage<String, String>(
"topic2"
, j+
""
,
"The "
+ i +
" message for key "
+ j));
}
producer.send(messageList);
}
producer.close();
}
|
則key相同的訊息會被髮送並存儲到同一個partition裡,而且key的序號正好和Partition序號相同。(Partition序號從0開始,本例中的key也從0開始)。下圖所示是通過Java程式呼叫Consumer後打印出的訊息列表。
4、consumer group (本節所有描述都是基於Consumer hight level API而非low level API)。
使用Consumer high level API時,同一Topic的一條訊息只能被同一個Consumer Group內的一個Consumer消費,但多個Consumer Group可同時消費這一訊息。
這是Kafka用來實現一個Topic訊息的廣播(發給所有的Consumer)和單播(發給某一個Consumer)的手段。一個Topic可以對應多個Consumer Group。如果需要實現廣播,只要每個Consumer有一個獨立的Group就可以了。要實現單播只要所有的Consumer在同一個Group裡。用Consumer Group還可以將Consumer進行自由的分組而不需要多次傳送訊息到不同的Topic。
實際上,Kafka的設計理念之一就是同時提供離線處理和實時處理。根據這一特性,可以使用Storm這種實時流處理系統對訊息進行實時線上處理,同時使用Hadoop這種批處理系統進行離線處理,還可以同時將資料實時備份到另一個數據中心,只需要保證這三個操作所使用的Consumer屬於不同的Consumer Group即可。
下面這個例子更清晰地展示了Kafka Consumer Group的特性。首先建立一個Topic (名為topic1,包含3個Partition),然後建立一個屬於group1的Consumer例項,並建立三個屬於group2的Consumer例項,最後通過Producer向topic1傳送key分別為1,2,3的訊息。結果發現屬於group1的Consumer收到了所有的這三條訊息,同時group2中的3個Consumer分別收到了key為1,2,3的訊息。