Java實現(xiàn)Kafka生產(chǎn)者和消費者的示例
Kafka簡介
Kafka是由Apache軟件基金會開發(fā)的一個開源流處理平臺,由Scala和Java編寫。Kafka的目標(biāo)是為處理實時數(shù)據(jù)提供一個統(tǒng)一、高吞吐、低延遲的平臺。
方式一:kafka-clients
引入依賴
在pom.xml文件中,引入kafka-clients依賴:
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>2.3.1</version> </dependency>
生產(chǎn)者
創(chuàng)建一個KafkaProducer的生產(chǎn)者實例:
@Configuration public class Config { public final static String bootstrapServers = "127.0.0.1:9092"; @Bean(destroyMethod = "close") public KafkaProducer<String, String> kafkaProducer() { Properties props = new Properties(); //設(shè)置Kafka服務(wù)器地址 props.put("bootstrap.servers", bootstrapServers); //設(shè)置數(shù)據(jù)key的序列化處理類 props.put("key.serializer", StringSerializer.class.getName()); //設(shè)置數(shù)據(jù)value的序列化處理類 props.put("value.serializer", StringSerializer.class.getName()); KafkaProducer<String, String> producer = new KafkaProducer<>(props); return producer; } }
在Controller中進行使用:
@RestController @Slf4j public class Controller { @Autowired private KafkaProducer<String, String> kafkaProducer; @RequestMapping("/kafkaClientsSend") public String send() { String uuid = UUID.randomUUID().toString(); RecordMetadata recordMetadata = null; try { //將消息發(fā)送到Kafka服務(wù)器的名稱為“one-more-topic”的Topic中 recordMetadata = kafkaProducer.send(new ProducerRecord<>("one-more-topic", uuid)).get(); log.info("recordMetadata: {}", recordMetadata); log.info("uuid: {}", uuid); } catch (Exception e) { log.error("send fail, uuid: {}", uuid, e); } return uuid; } }
消費者
創(chuàng)建一個KafkaConsumer的消費者實例:
@Configuration public class Config { public final static String groupId = "kafka-clients-group"; public final static String bootstrapServers = "127.0.0.1:9092"; @Bean(destroyMethod = "close") public KafkaConsumer<String, String> kafkaConsumer() { Properties props = new Properties(); //設(shè)置Kafka服務(wù)器地址 props.put("bootstrap.servers", bootstrapServers); //設(shè)置消費組 props.put("group.id", groupId); //設(shè)置數(shù)據(jù)key的反序列化處理類 props.put("key.deserializer", StringDeserializer.class.getName()); //設(shè)置數(shù)據(jù)value的反序列化處理類 props.put("value.deserializer", StringDeserializer.class.getName()); props.put("enable.auto.commit", "true"); props.put("auto.commit.interval.ms", "1000"); props.put("session.timeout.ms", "30000"); KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(props); //訂閱名稱為“one-more-topic”的Topic的消息 kafkaConsumer.subscribe(Arrays.asList("one-more-topic")); return kafkaConsumer; } }
在Controller中進行使用:
@RestController @Slf4j public class Controller { @Autowired private KafkaConsumer<String, String> kafkaConsumer; @RequestMapping("/receive") public List<String> receive() { 從Kafka服務(wù)器中的名稱為“one-more-topic”的Topic中消費消息 ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofSeconds(1)); List<String> messages = new ArrayList<>(records.count()); for (ConsumerRecord<String, String> record : records.records("one-more-topic")) { String message = record.value(); log.info("message: {}", message); messages.add(message); } return messages; } }
方式二:spring-kafka
使用kafka-clients需要我們自己創(chuàng)建生產(chǎn)者或者消費者的bean,如果我們的項目基于SpringBoot構(gòu)建,那么使用spring-kafka就方便多了。
引入依賴
在pom.xml文件中,引入spring-kafka依賴:
<dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.3.12.RELEASE</version> </dependency>
生產(chǎn)者
在application.yml文件中增加配置:
spring: kafka: #Kafka服務(wù)器地址 bootstrap-servers: 127.0.0.1:9092 producer: #設(shè)置數(shù)據(jù)value的序列化處理類 value-serializer: org.apache.kafka.common.serialization.StringSerializer
在Controller中注入KafkaTemplate就可以直接使用了,代碼如下:
@RestController @Slf4j public class Controller { @Autowired private KafkaTemplate<String, String> template; @RequestMapping("/springKafkaSend") public String send() { String uuid = UUID.randomUUID().toString(); //將消息發(fā)送到Kafka服務(wù)器的名稱為“one-more-topic”的Topic中 this.template.send("one-more-topic", uuid); log.info("uuid: {}", uuid); return uuid; } }
消費者
在application.yml文件中增加配置:
spring: kafka: #Kafka服務(wù)器地址 bootstrap-servers: 127.0.0.1:9092 consumer: #設(shè)置數(shù)據(jù)value的反序列化處理類 value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
創(chuàng)建一個可以被Spring框架掃描到的類,并且在方法上加上@KafkaListener注解,就可以消費消息了,代碼如下:
@Component @Slf4j public class Receiver { @KafkaListener(topics = "one-more-topic", groupId = "spring-kafka-group") public void listen(ConsumerRecord<?, ?> record) { Optional<?> kafkaMessage = Optional.ofNullable(record.value()); if (kafkaMessage.isPresent()) { String message = (String) kafkaMessage.get(); log.info("message: {}", message); } } }
到此這篇關(guān)于Java實現(xiàn)Kafka生產(chǎn)者和消費者的示例的文章就介紹到這了,更多相關(guān)Java Kafka生產(chǎn)者和消費者 內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
關(guān)于Java中byte[]?和?String互相轉(zhuǎn)換問題
這篇文章主要介紹了Java中byte[]?和?String互相轉(zhuǎn)換問題,通過用例給大家介紹了通過String類將String轉(zhuǎn)換成byte[]或者byte[]轉(zhuǎn)換成String,具體實例代碼跟隨小編一起看看吧2022-01-01Java如何向指定文件操作一段內(nèi)容(增加,刪除均可使用本方法)
這篇文章主要介紹了Java如何向指定文件操作一段內(nèi)容(增加,刪除均可使用本方法),具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-12-12mybatis執(zhí)行update批量更新時報錯的解決方案
這篇文章主要介紹了mybatis執(zhí)行update批量更新時報錯的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-03-03Java RandomAccessFile 指定位置實現(xiàn)文件讀取與寫入
這篇文章主要介紹了Java RandomAccessFile 指定位置實現(xiàn)文件讀取與寫入的相關(guān)資料,需要的朋友可以參考下2017-01-01mybatis-plus配置控制臺打印完整帶參數(shù)SQL語句的實現(xiàn)
這篇文章主要介紹了mybatis-plus配置控制臺打印完整帶參數(shù)SQL語句,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-08-08es(elasticsearch)整合SpringCloud(SpringBoot)搭建教程詳解
這篇文章主要介紹了es(elasticsearch)整合SpringCloud(SpringBoot)搭建教程,本文通過實例圖文相結(jié)合給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-06-06Java實現(xiàn)產(chǎn)生隨機字符串主鍵的UUID工具類
這篇文章主要介紹了Java實現(xiàn)產(chǎn)生隨機字符串主鍵的UUID工具類,涉及java隨機數(shù)與字符串遍歷、轉(zhuǎn)換等相關(guān)操作技巧,需要的朋友可以參考下2017-10-10