springboot中如何實(shí)現(xiàn)kafa指定offset消費(fèi)
這篇文章主要介紹了springboot中如何實(shí)現(xiàn)kafa指定offset消費(fèi),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
kafka消費(fèi)過程難免會(huì)遇到需要重新消費(fèi)的場(chǎng)景,例如我們消費(fèi)到kafka數(shù)據(jù)之后需要進(jìn)行存庫(kù)操作,若某一時(shí)刻數(shù)據(jù)庫(kù)down了,導(dǎo)致kafka消費(fèi)的數(shù)據(jù)無(wú)法入庫(kù),為了彌補(bǔ)數(shù)據(jù)庫(kù)down期間的數(shù)據(jù)損失,有一種做法我們可以指定kafka消費(fèi)者的offset到之前某一時(shí)間的數(shù)值,然后重新進(jìn)行消費(fèi)。
首先創(chuàng)建kafka消費(fèi)服務(wù)
@Service @Slf4j //實(shí)現(xiàn)CommandLineRunner接口,在springboot啟動(dòng)時(shí)自動(dòng)運(yùn)行其run方法。 public class TspLogbookAnalysisService implements CommandLineRunner { @Override public void run(String... args) { //do something } }
kafka消費(fèi)模型建立
kafka server中每個(gè)主題存在多個(gè)分區(qū)(partition),每個(gè)分區(qū)自己維護(hù)一個(gè)偏移量(offset),我們的目標(biāo)是實(shí)現(xiàn)kafka consumer指定offset消費(fèi)。
在這里使用consumer-->partition一對(duì)一的消費(fèi)模型,每個(gè)consumer各自管理自己的partition。
@Service @Slf4j public class TspLogbookAnalysisService implements CommandLineRunner { //聲明kafka分區(qū)數(shù)相等的消費(fèi)線程數(shù),一個(gè)分區(qū)對(duì)應(yīng)一個(gè)消費(fèi)線程 private static final int consumeThreadNum = 9; //特殊指定每個(gè)分區(qū)開始消費(fèi)的offset private List<Long> partitionOffsets = Lists.newArrayList(1111,1112,1113,1114,1115,1116,1117,1118,1119); private ExecutorService executorService = Executors.newFixedThreadPool(consumeThreadNum); @Override public void run(String... args) { //循環(huán)遍歷創(chuàng)建消費(fèi)線程 IntStream.range(0, consumeThreadNum) .forEach(partitionIndex -> executorService.submit(() -> startConsume(partitionIndex))); } }
kafka consumer對(duì)offset的處理
聲明kafka consumer的配置類
private Properties buildKafkaConfig() { Properties kafkaConfiguration = new Properties(); kafkaConfiguration.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.GROUP_ID_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,""); kafkaConfiguration.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, ""); ...更多配置項(xiàng) return kafkaConfiguration; }
創(chuàng)建kafka consumer,處理offset,開始消費(fèi)數(shù)據(jù)任務(wù)#
private void startConsume(int partitionIndex) { //創(chuàng)建kafka consumer KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<>(buildKafkaConfig()); try { //指定該consumer對(duì)應(yīng)的消費(fèi)分區(qū) TopicPartition partition = new TopicPartition(kafkaProperties.getKafkaTopic(), partitionIndex); consumer.assign(Lists.newArrayList(partition)); //consumer的offset處理 if (collectionUtils.isNotEmpty(partitionOffsets) && partitionOffsets.size() == consumeThreadNum) { Long seekOffset = partitionOffsets.get(partitionIndex); log.info("partition:{} , offset seek from {}", partition, seekOffset); consumer.seek(partition, seekOffset); } //開始消費(fèi)數(shù)據(jù)任務(wù) kafkaRecordConsume(consumer, partition); } catch (Exception e) { log.error("kafka consume error:{}", ExceptionUtils.getFullStackTrace(e)); } finally { try { consumer.commitSync(); } finally { consumer.close(); } } }
消費(fèi)數(shù)據(jù)邏輯,offset操作
private void kafkaRecordConsume(KafkaConsumer<String, byte[]> consumer, TopicPartition partition) { while (true) { try { ConsumerRecords<String, byte[]> records = consumer.poll(TspLogbookConstants.POLL_TIMEOUT); //具體的處理流程 records.forEach((k) -> handleKafkaInput(k.key(), k.value())); //🌿很重要:日志記錄當(dāng)前consumer的offset,partition相關(guān)信息(之后如需重新指定offset消費(fèi)就從這里的日志中獲取offset,partition信息) if (records.count() > 0) { String currentOffset = String.valueOf(consumer.position(partition)); log.info("current records size is:{}, partition is: {}, offset is:{}", records.count(), consumer.assignment(), currentOffset); } //offset提交 consumer.commitAsync(); } catch (Exception e) { log.error("handlerKafkaInput error{}", ExceptionUtils.getFullStackTrace(e)); } } }
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Java中實(shí)現(xiàn)線程間通信的實(shí)例教程
線程通信的目標(biāo)是使線程間能夠互相發(fā)送信號(hào),另一方面線程通信使線程能夠等待其他線程的信號(hào),這篇文章主要給大家介紹了關(guān)于Java中實(shí)現(xiàn)線程間通信的相關(guān)資料,本文通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考下2021-09-09Java Web實(shí)現(xiàn)文件下載和亂碼處理方法
文件上傳和下載是web開發(fā)中常遇到的問題。今天小編給大家分享下Java Web實(shí)現(xiàn)文件下載和亂碼處理方法的相關(guān)資料,需要的朋友可以參考下2016-10-10SpringBoot+SpringSession+Redis實(shí)現(xiàn)session共享及唯一登錄示例
這篇文章主要介紹了SpringBoot+SpringSession+Redis實(shí)現(xiàn)session共享及唯一登錄示例,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-04-04SpringBoot項(xiàng)目實(shí)現(xiàn)關(guān)閉數(shù)據(jù)庫(kù)配置和springSecurity
這篇文章主要介紹了SpringBoot項(xiàng)目實(shí)現(xiàn)關(guān)閉數(shù)據(jù)庫(kù)配置和springSecurity的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-08-08Spring Cloud Hystrix 線程池隊(duì)列配置(踩坑)
這篇文章主要介紹了Spring Cloud Hystrix 線程池隊(duì)列配置(踩坑),小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來(lái)看看吧2019-01-01java之static關(guān)鍵字用法實(shí)例解析
這篇文章主要介紹了java之static關(guān)鍵字用法實(shí)例解析,包括了static關(guān)鍵字的原理講解及用法分析,并附帶了實(shí)例說(shuō)明,需要的朋友可以參考下2014-09-09Java 數(shù)據(jù)結(jié)構(gòu)與算法系列精講之排序算法
排序算法是《數(shù)據(jù)結(jié)構(gòu)與算法》中最基本的算法之一。排序算法可以分為內(nèi)部排序和外部排序,內(nèi)部排序是數(shù)據(jù)記錄在內(nèi)存中進(jìn)行排序,而外部排序是因排序的數(shù)據(jù)很大,一次不能容納全部的排序記錄,在排序過程中需要訪問外存2022-02-02