欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

springboot中如何實現(xiàn)kafa指定offset消費

 更新時間:2019年12月14日 16:38:21   作者:東溪陳姓少年  
這篇文章主要介紹了springboot中如何實現(xiàn)kafa指定offset消費,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下

這篇文章主要介紹了springboot中如何實現(xiàn)kafa指定offset消費,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下

kafka消費過程難免會遇到需要重新消費的場景,例如我們消費到kafka數(shù)據(jù)之后需要進行存庫操作,若某一時刻數(shù)據(jù)庫down了,導(dǎo)致kafka消費的數(shù)據(jù)無法入庫,為了彌補數(shù)據(jù)庫down期間的數(shù)據(jù)損失,有一種做法我們可以指定kafka消費者的offset到之前某一時間的數(shù)值,然后重新進行消費。

首先創(chuàng)建kafka消費服務(wù)

@Service
@Slf4j
//實現(xiàn)CommandLineRunner接口,在springboot啟動時自動運行其run方法。
public class TspLogbookAnalysisService implements CommandLineRunner {
 @Override
 public void run(String... args) {
  //do something
 }
}

kafka消費模型建立

kafka server中每個主題存在多個分區(qū)(partition),每個分區(qū)自己維護一個偏移量(offset),我們的目標是實現(xiàn)kafka consumer指定offset消費。

在這里使用consumer-->partition一對一的消費模型,每個consumer各自管理自己的partition。

@Service
@Slf4j
public class TspLogbookAnalysisService implements CommandLineRunner {
 //聲明kafka分區(qū)數(shù)相等的消費線程數(shù),一個分區(qū)對應(yīng)一個消費線程
 private static final int consumeThreadNum = 9;
 //特殊指定每個分區(qū)開始消費的offset
 private List<Long> partitionOffsets = Lists.newArrayList(1111,1112,1113,1114,1115,1116,1117,1118,1119);
 
 private ExecutorService executorService = Executors.newFixedThreadPool(consumeThreadNum);

 @Override
 public void run(String... args) {
  //循環(huán)遍歷創(chuàng)建消費線程
  IntStream.range(0, consumeThreadNum)
    .forEach(partitionIndex -> executorService.submit(() -> startConsume(partitionIndex)));
 }
}

kafka consumer對offset的處理

聲明kafka consumer的配置類

private Properties buildKafkaConfig() {
 Properties kafkaConfiguration = new Properties();
 kafkaConfiguration.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.GROUP_ID_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "");
 kafkaConfiguration.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"");
 kafkaConfiguration.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "");
 ...更多配置項

 return kafkaConfiguration;
}

創(chuàng)建kafka consumer,處理offset,開始消費數(shù)據(jù)任務(wù)#

private void startConsume(int partitionIndex) {
 //創(chuàng)建kafka consumer
 KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<>(buildKafkaConfig());

 try {
  //指定該consumer對應(yīng)的消費分區(qū)
  TopicPartition partition = new TopicPartition(kafkaProperties.getKafkaTopic(), partitionIndex);
  consumer.assign(Lists.newArrayList(partition));

  //consumer的offset處理
  if (collectionUtils.isNotEmpty(partitionOffsets) && partitionOffsets.size() == consumeThreadNum) {
   Long seekOffset = partitionOffsets.get(partitionIndex);
   log.info("partition:{} , offset seek from {}", partition, seekOffset);
   consumer.seek(partition, seekOffset);
  }
  
  //開始消費數(shù)據(jù)任務(wù)
  kafkaRecordConsume(consumer, partition);
 } catch (Exception e) {
  log.error("kafka consume error:{}", ExceptionUtils.getFullStackTrace(e));
 } finally {
  try {
   consumer.commitSync();
  } finally {
   consumer.close();
  }
 }
}

消費數(shù)據(jù)邏輯,offset操作

private void kafkaRecordConsume(KafkaConsumer<String, byte[]> consumer, TopicPartition partition) {
 while (true) {
  try {
   ConsumerRecords<String, byte[]> records = consumer.poll(TspLogbookConstants.POLL_TIMEOUT);
   //具體的處理流程
   records.forEach((k) -> handleKafkaInput(k.key(), k.value()));

   //🌿很重要:日志記錄當前consumer的offset,partition相關(guān)信息(之后如需重新指定offset消費就從這里的日志中獲取offset,partition信息)
   if (records.count() > 0) {
    String currentOffset = String.valueOf(consumer.position(partition));
    log.info("current records size is:{}, partition is: {}, offset is:{}", records.count(), consumer.assignment(), currentOffset);
   }
 
   //offset提交  
   consumer.commitAsync();
  } catch (Exception e) {
   log.error("handlerKafkaInput error{}", ExceptionUtils.getFullStackTrace(e));
  }
 }
}

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Java中實現(xiàn)線程間通信的實例教程

    Java中實現(xiàn)線程間通信的實例教程

    線程通信的目標是使線程間能夠互相發(fā)送信號,另一方面線程通信使線程能夠等待其他線程的信號,這篇文章主要給大家介紹了關(guān)于Java中實現(xiàn)線程間通信的相關(guān)資料,本文通過示例代碼介紹的非常詳細,需要的朋友可以參考下
    2021-09-09
  • Java Web實現(xiàn)文件下載和亂碼處理方法

    Java Web實現(xiàn)文件下載和亂碼處理方法

    文件上傳和下載是web開發(fā)中常遇到的問題。今天小編給大家分享下Java Web實現(xiàn)文件下載和亂碼處理方法的相關(guān)資料,需要的朋友可以參考下
    2016-10-10
  • SpringBoot+SpringSession+Redis實現(xiàn)session共享及唯一登錄示例

    SpringBoot+SpringSession+Redis實現(xiàn)session共享及唯一登錄示例

    這篇文章主要介紹了SpringBoot+SpringSession+Redis實現(xiàn)session共享及唯一登錄示例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-04-04
  • 通過圖例了解PowerDesigner使用方法

    通過圖例了解PowerDesigner使用方法

    這篇文章主要介紹了通過圖例了解PowerDesigner使用方法,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-08-08
  • SpringBoot項目實現(xiàn)關(guān)閉數(shù)據(jù)庫配置和springSecurity

    SpringBoot項目實現(xiàn)關(guān)閉數(shù)據(jù)庫配置和springSecurity

    這篇文章主要介紹了SpringBoot項目實現(xiàn)關(guān)閉數(shù)據(jù)庫配置和springSecurity的操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-08-08
  • Spring Cloud Hystrix 線程池隊列配置(踩坑)

    Spring Cloud Hystrix 線程池隊列配置(踩坑)

    這篇文章主要介紹了Spring Cloud Hystrix 線程池隊列配置(踩坑),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2019-01-01
  • Log4j_配置方法(全面講解)

    Log4j_配置方法(全面講解)

    下面小編就為大家?guī)硪黄狶og4j_配置方法(全面講解)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-09-09
  • Java線程死鎖代碼詳解

    Java線程死鎖代碼詳解

    本篇文章主要介紹了Java線程死鎖代碼詳解,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2021-11-11
  • java之static關(guān)鍵字用法實例解析

    java之static關(guān)鍵字用法實例解析

    這篇文章主要介紹了java之static關(guān)鍵字用法實例解析,包括了static關(guān)鍵字的原理講解及用法分析,并附帶了實例說明,需要的朋友可以參考下
    2014-09-09
  • Java 數(shù)據(jù)結(jié)構(gòu)與算法系列精講之排序算法

    Java 數(shù)據(jù)結(jié)構(gòu)與算法系列精講之排序算法

    排序算法是《數(shù)據(jù)結(jié)構(gòu)與算法》中最基本的算法之一。排序算法可以分為內(nèi)部排序和外部排序,內(nèi)部排序是數(shù)據(jù)記錄在內(nèi)存中進行排序,而外部排序是因排序的數(shù)據(jù)很大,一次不能容納全部的排序記錄,在排序過程中需要訪問外存
    2022-02-02

最新評論