滴滴二面之Kafka如何讀寫副本消息的
前言
無論是讀取副本還是寫入副本,都是通過底層的Partition對象完成的,而這些分區(qū)對象全部保存在上節(jié)課所學(xué)的allPartitions字段中??梢哉f,理解這些字段的用途,是后續(xù)我們探索副本管理器類功能的重要前提。
現(xiàn)在,我們就來學(xué)習(xí)下副本讀寫功能。整個Kafka的同步機制,本質(zhì)上就是副本讀取+副本寫入,搞懂了這兩個功能,你就知道了Follower副本是如何同步Leader副本數(shù)據(jù)的。
appendRecords-副本寫入
向副本底層日志寫入消息的邏輯就實現(xiàn)在ReplicaManager#appendRecords。
Kafka需副本寫入的場景:
- 生產(chǎn)者向Leader副本寫入消息
- Follower副本拉取消息后寫入副本
僅該場景調(diào)用Partition對象的方法,其余3個都是調(diào)用appendRecords完成 - 消費者組寫入組信息
- 事務(wù)管理器寫入事務(wù)信息(包括事務(wù)標記、事務(wù)元數(shù)據(jù)等)
appendRecords方法將給定的一組分區(qū)的消息寫入對應(yīng)Leader副本,并根據(jù)PRODUCE請求中acks的設(shè)置,有選擇地等待其他副本寫入完成。然后,調(diào)用指定回調(diào)邏輯。
appendRecords向副本日志寫入消息的過程:
執(zhí)行流程
可見,appendRecords:
實現(xiàn)消息寫入的方法是appendToLocalLog
判斷是否需要等待其他副本寫入的方法delayedProduceRequestRequired
appendToLocalLog寫入副本本地日志
利用Partition#appendRecordsToLeader寫入消息集合,就是利用appendAsLeader方法寫入本地日志的。
delayedProduceRequestRequired
判斷消息集合被寫入到日志之后,是否需要等待其它副本也寫入成功:
private def delayedProduceRequestRequired( requiredAcks: Short, entriesPerPartition: Map[TopicPartition, MemoryRecords], localProduceResults: Map[TopicPartition, LogAppendResult]): Boolean = { requiredAcks == -1 && entriesPerPartition.nonEmpty && localProduceResults.values.count(_.exception.isDefined) < entriesPerPartition.size }
若等待其他副本的寫入,須同時滿足:
- requiredAcks==-1
- 依然有數(shù)據(jù)尚未寫完
- 至少有一個分區(qū)的消息,已成功被寫入本地日志
2和3可結(jié)合來看。若所有分區(qū)的數(shù)據(jù)寫入都不成功,則可能出現(xiàn)嚴重錯誤,此時應(yīng)不再等待,而是直接返回錯誤給發(fā)送方。
而有部分分區(qū)成功寫入,部分分區(qū)寫入失敗,則可能偶發(fā)的瞬時錯誤導(dǎo)致。此時,不妨將本次寫入請求放入Purgatory,給個重試機會。
副本讀取:fetchMessages
ReplicaManager#fetchMessages負責(zé)讀取副本數(shù)據(jù)。無論:
- Java消費者
- APIFollower副本
拉取消息的主途徑都是向Broker發(fā)FETCH請求,Broker端接收到該請求后,調(diào)用fetchMessages從底層的Leader副本取出消息。
fetchMessages也可能會延時處理FETCH請求,因Broker端必須要累積足夠多數(shù)據(jù)后,才會返回Response給請求發(fā)送方。
整個方法分為:
讀取本地日志
首先判斷,讀取消息的請求方,就能確定可讀取的范圍了。
fetchIsolation,讀取隔離級別:
- 對Follower副本,它能讀取到Leader副本LEO值以下的所有消息
- 普通Consumer,只能“看到”Leader副本高水位值以下的消息
確定可讀取范圍后,調(diào)用readFromLog讀取本地日志上的消息數(shù)據(jù),并將結(jié)果賦給logReadResults變量。readFromLog調(diào)用readFromLocalLog,在待讀取分區(qū)上依次調(diào)用其日志對象的read方法執(zhí)行實際的消息讀取。
根據(jù)讀取結(jié)果確定Response
根據(jù)上一步讀取結(jié)果創(chuàng)建對應(yīng)Response:
根據(jù)上一步得到的讀取結(jié)果,統(tǒng)計可讀取的總字節(jié)數(shù),然后判斷此時是否能夠立即返回Reponse。
副本管理器讀寫副本的兩個方法appendRecords和fetchMessages本質(zhì)上在底層分別調(diào)用Log的append和read方法,以實現(xiàn)本地日志的讀寫操作。完成讀寫操作后,這兩個方法還定義了延時處理的條件。一旦滿足延時處理條件,就交給對應(yīng)Purgatory處理。
從這倆方法可見單個組件融合一起的趨勢。雖然我們學(xué)習(xí)單個源碼文件的順序是自上而下,但串聯(lián)Kafka主要組件功能的路徑卻是自下而上。
如副本寫入操作,日志對象append方法被上一層的Partition對象中的方法調(diào)用,而后者又進一步被副本管理器中的方法調(diào)用。我們按自上而下閱讀了副本管理器、日志對象等單個組件的代碼,了解了各自的獨立功能。
現(xiàn)在開始慢慢地把它們?nèi)诤弦黄穑瑯?gòu)建Kafka操作分區(qū)副本日志對象的完整調(diào)用路徑。同時采用這兩種方式來閱讀源碼,就能更高效弄懂Kafka原理。
總結(jié)
Kafka副本狀態(tài)機類ReplicaManager讀寫副本的核心方法:
- appendRecords:向副本寫入消息,利用Log#append方法和Purgatory機制實現(xiàn)Follower副本向Leader副本獲取消息后的數(shù)據(jù)同步操作
- fetchMessages:從副本讀取消息,為普通Consumer和Follower副本所使用。當它們向Broker發(fā)送FETCH請求時,Broker上的副本管理器調(diào)用該方法從本地日志中獲取指定消息
到此這篇關(guān)于滴滴二面之Kafka如何讀寫副本消息的文章就介紹到這了,更多相關(guān)Kafka讀寫副本消息內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
java進階解析Springboot上傳excel存入數(shù)據(jù)庫步驟
項目需要,寫了一個,批量導(dǎo)入的接口。因為需要使用excel去批量導(dǎo)入數(shù)據(jù),所以寫了一個例子,經(jīng)過測試已經(jīng)可以用于實際開發(fā),這里記錄一下2021-09-09Java集合排序規(guī)則接口Comparator用法解析
這篇文章主要介紹了Java集合排序規(guī)則接口Comparator用法解析,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-09-09Spring?Boot實現(xiàn)文件上傳的兩種方式總結(jié)
應(yīng)用開發(fā)過程中,文件上傳是一個基礎(chǔ)的擴展功能,它的目的就是讓大家共享我們上傳的文件資源,下面這篇文章主要給大家總結(jié)介紹了關(guān)于Spring?Boot實現(xiàn)文件上傳的兩種方式,需要的朋友可以參考下2023-05-05spring boot集成shiro詳細教程(小結(jié))
這篇文章主要介紹了spring boot 集成shiro詳細教程,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-01-01Spring Cloud Zipkin服務(wù)端追蹤服務(wù)
這篇文章主要介紹了Spring Cloud Zipkin服務(wù)端追蹤服務(wù),文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-04-04SpringBoot項目在啟動后自動關(guān)閉的實現(xiàn)
我們在寫spring?boot?web項目時,有時會遇到啟動后立即關(guān)閉的情況,?本文主要介紹了SpringBoot項目在啟動后自動關(guān)閉的實現(xiàn),具有一定的參考價值,感興趣的可以了解一下2024-01-01