SpringBoot Kafka 整合使用
前提
假設你瞭解過 SpringBoot 和 Kafka。
1、SpringBoot
如果對 SpringBoot 不瞭解的話,建議去看看 DD 大佬 和 純潔的微笑 的系列部落格。
2、Kafka
Kafka 的話可以看看我前兩天寫的部落格 : Kafka 安裝及快速入門 學習的話自己開臺虛擬機器自己手動搭建環境吧,有條件的買伺服器。
注意:一定要親自自己安裝實踐,接下來我們將這兩個進行整合。
建立專案
專案整體架構:
使用 IDEA 建立 SpringBoot 專案,這個很簡單了,這裡不做過多的講解。
1、pom 檔案程式碼如下:
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.zhisheng</groupId>
<artifactId >kafka-learning</artifactId>
<version>0.0.1-SNAPSHOT</version>
<packaging>jar</packaging>
<name>kafka-learning</name>
<description>Demo project for Spring Boot + kafka</description>
<parent>
<groupId>org.springframework.boot</groupId >
<artifactId>spring-boot-starter-parent</artifactId>
<version>1.5.9.RELEASE</version>
<relativePath/> <!-- lookup parent from repository -->
</parent>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
<java.version>1.8</java.version>
</properties>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>1.1.1.RELEASE</version>
</dependency>
<dependency>
<groupId>com.google.code.gson</groupId>
<artifactId>gson</artifactId>
<version>2.8.2</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
</plugin>
</plugins>
</build>
</project>
主要引入了 spring-kafka 、lombok 、 gson 依賴。
2、訊息實體類 Message.java 如下:
@Data
public class Message {
private Long id; //id
private String msg; //訊息
private Date sendTime; //時間戳
}
3、訊息傳送類 KafkaSender.java
@Component
@Slf4j
public class KafkaSender {
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
private Gson gson = new GsonBuilder().create();
//傳送訊息方法
public void send() {
Message message = new Message();
message.setId(System.currentTimeMillis());
message.setMsg(UUID.randomUUID().toString());
message.setSendTime(new Date());
log.info("+++++++++++++++++++++ message = {}", gson.toJson(message));
kafkaTemplate.send("zhisheng", gson.toJson(message));
}
}
就這樣,傳送訊息程式碼就實現了。
這裡關鍵的程式碼為 kafkaTemplate.send()
方法,zhisheng
是 Kafka 裡的 topic ,這個 topic 在 Java 程式中是不需要提前在 Kafka 中設定的,因為它會在傳送的時候自動建立你設定的 topic, gson.toJson(message)
是訊息內容,這裡暫時先說這麼多了,不詳解了,後面有機會繼續把裡面原始碼解讀寫篇部落格出來(因為中途碰到坑,老子跟了幾遍原始碼)。
4、訊息接收類 KafkaReceiver.java
@Component
@Slf4j
public class KafkaReceiver {
@KafkaListener(topics = {"zhisheng"})
public void listen(ConsumerRecord<?, ?> record) {
Optional<?> kafkaMessage = Optional.ofNullable(record.value());
if (kafkaMessage.isPresent()) {
Object message = kafkaMessage.get();
log.info("----------------- record =" + record);
log.info("------------------ message =" + message);
}
}
}
客戶端 consumer 接收訊息特別簡單,直接用 @KafkaListener
註解即可,並在監聽中設定監聽的 topic
,topics
是一個數組所以是可以繫結多個主題的,上面的程式碼中修改為 @KafkaListener(topics = {"zhisheng","tian"})
就可以同時監聽兩個 topic
的訊息了。需要注意的是:這裡的 topic 需要和訊息傳送類 KafkaSender.java 中設定的 topic 一致。
5、啟動類 KafkaApplication.java
@SpringBootApplication
public class KafkaApplication {
public static void main(String[] args) {
ConfigurableApplicationContext context = SpringApplication.run(KafkaApplication.class, args);
KafkaSender sender = context.getBean(KafkaSender.class);
for (int i = 0; i < 3; i++) {
//呼叫訊息傳送類中的訊息傳送方法
sender.send();
try {
Thread.sleep(3000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
6、配置檔案 application.properties
#============== kafka ===================
# 指定kafka 代理地址,可以多個
spring.kafka.bootstrap-servers=192.168.153.135:9092
#=============== provider =======================
spring.kafka.producer.retries=0
# 每次批量傳送訊息的數量
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432
# 指定訊息key和訊息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
#=============== consumer =======================
# 指定預設消費者group id
spring.kafka.consumer.group-id=test-consumer-group
spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100
# 指定訊息key和訊息體的編解碼方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.bootstrap-servers 後面設定你安裝的 Kafka 的機器 IP 地址和埠號 9092。
如果你只是簡單整合下,其他的幾個預設就好了。
Kafka 設定
在你安裝的 Kafka 目錄檔案下:
啟動 zk
使用安裝包中的指令碼啟動單節點 Zookeeper 例項:
bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
啟動 Kafka 服務
使用 kafka-server-start.sh
啟動 kafka 服務:
bin/kafka-server-start.sh config/server.properties
啟動成功後!
千萬注意: 記得將你的虛擬機器或者伺服器關閉防火牆或者開啟 Kafka 的埠 9092。
執行
出現這就代表整合成功了!
我們看下 Kafka 中的 topic 列表就
bin/kafka-topics.sh --list --zookeeper localhost:2181
就會發現剛才我們程式中的 zhisheng
已經自己建立了。