探究京東咚咚架構(gòu)演進

咚咚是什么?咚咚之于京東相當(dāng)于旺旺之于淘寶,它們都是服務(wù)于買家和賣家的溝通。 自從京東開始為第三方賣家提供入駐平臺服務(wù)后,咚咚也就隨之誕生了。 我們首先看看它誕生之初是什么樣的。
1.0 誕生(2010 - 2011)
為了業(yè)務(wù)的快速上線,1.0 版本的技術(shù)架構(gòu)實現(xiàn)是非常直接且簡單粗暴的。 如何簡單粗暴法?請看架構(gòu)圖,如下。
1.0 的功能十分簡單,實現(xiàn)了一個 IM 的基本功能,接入、互通消息和狀態(tài)。 另外還有客服功能,就是顧客接入咨詢時的客服分配,按輪詢方式把顧客分配給在線的客服接待。 用開源 Mina 框架實現(xiàn)了 TCP 的長連接接入,用 Tomcat Comet 機制實現(xiàn)了 HTTP 的長輪詢服務(wù)。 而消息投遞的實現(xiàn)是一端發(fā)送的消息臨時存放在 Redis 中,另一端拉取的生產(chǎn)消費模型。
這個模型的做法導(dǎo)致需要以一種高頻率的方式來輪詢 Redis 遍歷屬于自己連接的關(guān)聯(lián)會話消息。 這個模型很簡單,簡單包括多個層面的意思:理解起來簡單;開發(fā)起來簡單;部署起來也簡單。 只需要一個 Tomcat 應(yīng)用依賴一個共享的 Redis,簡單的實現(xiàn)核心業(yè)務(wù)功能,并支持業(yè)務(wù)快速上線。
但這個簡單的模型也有些嚴重的缺陷,主要是效率和擴展問題。 輪詢的頻率間隔大小基本決定了消息的延時,輪詢越快延時越低,但輪詢越快消耗也越高。 這個模型實際上是一個高功耗低效能的模型,因為不活躍的連接在那做高頻率的無意義輪詢。 高頻有多高呢,基本在 100 ms 以內(nèi),你不能讓輪詢太慢,比如超過 2 秒輪一次,人就會在聊天過程中感受到明顯的會話延遲。 隨著在線人數(shù)增加,輪詢的耗時也線性增長,因此這個模型導(dǎo)致了擴展能力和承載能力都不好,一定會隨著在線人數(shù)的增長碰到性能瓶頸。
1.0 的時代背景正是京東技術(shù)平臺從 .NET 向 Java 轉(zhuǎn)型的年代,我也正是在這期間加入京東并參與了京東主站技術(shù)轉(zhuǎn)型架構(gòu)升級的過程。 之后開始接手了京東咚咚,并持續(xù)完善這個產(chǎn)品,進行了三次技術(shù)架構(gòu)演進。
2.0 成長(2012)
我們剛接手時 1.0 已在線上運行并支持京東 POP(開放平臺)業(yè)務(wù),之后京東打算組建自營在線客服團隊并落地在成都。 不管是自營還是 POP 客服咨詢業(yè)務(wù)當(dāng)時都起步不久,1.0 架構(gòu)中的性能和效率缺陷問題還沒有達到引爆的業(yè)務(wù)量級。 而自營客服當(dāng)時還處于起步階段,客服人數(shù)不足,服務(wù)能力不夠,顧客咨詢量遠遠超過客服的服務(wù)能力。 超出服務(wù)能力的顧客咨詢,當(dāng)時我們的系統(tǒng)統(tǒng)一返回提示客服繁忙,請稍后咨詢。 這種狀況導(dǎo)致高峰期大量顧客無論怎么刷新請求,都很可能無法接入客服,體驗很差。 所以 2.0 重點放在了業(yè)務(wù)功能體驗的提升上,如下圖所示。
針對無法及時提供服務(wù)的顧客,可以排隊或者留言。 針對純文字溝通,提供了文件和圖片等更豐富的表達方式。 另外支持了客服轉(zhuǎn)接和快捷回復(fù)等方式來提升客服的接待效率。 總之,整個 2.0 就是圍繞提升客服效率和用戶體驗。 而我們擔(dān)心的效率問題在 2.0 高速發(fā)展業(yè)務(wù)的時期還沒有出現(xiàn),但業(yè)務(wù)量正在逐漸積累,我們知道它快要爆了。 到 2012 年末,度過雙十一后開始了 3.0 的一次重大架構(gòu)升級。
3.0 爆發(fā)(2013 - 2014)
經(jīng)歷了 2.0 時代一整年的業(yè)務(wù)高速發(fā)展,實際上代碼規(guī)模膨脹的很快。 與代碼一塊膨脹的還有團隊,從最初的 4 個人到近 30 人。 團隊大了后,一個系統(tǒng)多人開發(fā),開發(fā)人員層次不一,規(guī)范難統(tǒng)一,系統(tǒng)模塊耦合重,改動溝通和依賴多,上線風(fēng)險難以控制。 一個單獨 tomcat 應(yīng)用多實例部署模型終于走到頭了,這個版本架構(gòu)升級的主題就是服務(wù)化。
服務(wù)化的第一個問題如何把一個大的應(yīng)用系統(tǒng)切分成子服務(wù)系統(tǒng)。 當(dāng)時的背景是京東的部署還在半自動化年代,自動部署系統(tǒng)剛起步,子服務(wù)系統(tǒng)若按業(yè)務(wù)劃分太細太多,部署工作量很大且難管理。 所以當(dāng)時我們不是按業(yè)務(wù)功能分區(qū)服務(wù)的,而是按業(yè)務(wù)重要性級別劃分了 0、1、2 三個級別不同的子業(yè)務(wù)服務(wù)系統(tǒng)。 另外就是獨立了一組接入服務(wù),針對不同渠道和通信方式的接入端,見下圖。
更細化的應(yīng)用服務(wù)和架構(gòu)分層方式可見下圖。
這次大的架構(gòu)升級,主要考慮了三個方面:穩(wěn)定性、效率和容量。 做了下面這些事情:
- 業(yè)務(wù)分級、核心、非核心業(yè)務(wù)隔離
多機房部署,流量分流、容災(zāi)冗余、峰值應(yīng)對冗余
讀庫多源,失敗自動轉(zhuǎn)移
寫庫主備,短暫有損服務(wù)容忍下的快速切換
外部接口,失敗轉(zhuǎn)移或快速斷路
Redis 主備,失敗轉(zhuǎn)移
大表遷移,MongoDB 取代 MySQL 存儲消息記錄
改進消息投遞模型
前 6 條基本屬于考慮系統(tǒng)穩(wěn)定性、可用性方面的改進升級。 這一塊屬于陸續(xù)迭代完成的,承載很多失敗轉(zhuǎn)移的配置和控制功能在上面圖中是由管控中心提供的。 第 7 條主要是隨著業(yè)務(wù)量的上升,單日消息量越來越大后,使用了 MongoDB 來單獨存儲量最大的聊天記錄。 第 8 條是針對 1.0 版本消息輪詢效率低的改進,改進后的投遞方式如下圖所示:
不再是輪詢了,而是讓終端每次建立連接后注冊接入點位置,消息投遞前定位連接所在接入點位置再推送過去。 這樣投遞效率就是恒定的了,而且很容易擴展,在線人數(shù)越多則連接數(shù)越多,只需要擴展接入點即可。 其實,這個模型依然還有些小問題,主要出在離線消息的處理上,可以先思考下,我們最后再講。
3.0 經(jīng)過了兩年的迭代式升級,單純從業(yè)務(wù)量上來說還可以繼續(xù)支撐很長時間的增長。 但實際上到 2014 年底我們面對的不再是業(yè)務(wù)量的問題,而是業(yè)務(wù)模式的變化。 這直接導(dǎo)致了一個全新時代的到來。
4.0 涅槃(2015 至今 )
2014 年京東的組織架構(gòu)發(fā)生了很大變化,從一個公司變成了一個集團,下設(shè)多個子公司。 原來的商城成為了其中一個子公司,新成立的子公司包括京東金融、京東智能、京東到家、拍拍、海外事業(yè)部等。 各自業(yè)務(wù)范圍不同,業(yè)務(wù)模式也不同,但不管什么業(yè)務(wù)總是需要客服服務(wù)。 如何復(fù)用原來為商城量身訂做的咚咚客服系統(tǒng)并支持其他子公司業(yè)務(wù)快速接入成為我們新的課題。
最早要求接入的是拍拍網(wǎng),它是從騰訊收購的,所以是完全不同的賬戶和訂單交易體系。 由于時間緊迫,我們把為商城訂做的部分剝離,基于 3.0 架構(gòu)對接拍拍又單獨訂做了一套,并獨立部署,像下面這樣。
雖然在業(yè)務(wù)要求的時間點前完成了上線,但這樣做也帶來了明顯的問題:
- 復(fù)制工程,定制業(yè)務(wù)開發(fā),多套源碼維護成本高
獨立部署,至少雙機房主備外加一個灰度集群,資源浪費大
以前我們都是面向業(yè)務(wù)去架構(gòu)系統(tǒng),如今新的業(yè)務(wù)變化形勢下我們開始考慮面向平臺去架構(gòu),在統(tǒng)一平臺上跑多套業(yè)務(wù),統(tǒng)一源碼,統(tǒng)一部署,統(tǒng)一維護。 把業(yè)務(wù)服務(wù)繼續(xù)拆分,剝離出最基礎(chǔ)的 IM 服務(wù),IM 通用服務(wù),客服通用服務(wù),而針對不同的業(yè)務(wù)特殊需求做最小化的定制服務(wù)開發(fā)。 部署方式則以平臺形式部署,不同的業(yè)務(wù)方的服務(wù)跑在同一個平臺上,但數(shù)據(jù)互相隔離。 服務(wù)繼續(xù)被拆分的更微粒化,形成了一組服務(wù)矩陣(見下圖)。
而部署方式,只需要在雙機房建立兩套對等集群,并另外建一個較小的灰度發(fā)布集群即可,所有不同業(yè)務(wù)都運行在統(tǒng)一平臺集群上,如下圖。
更細粒度的服務(wù)意味著每個服務(wù)的開發(fā)更簡單,代碼量更小,依賴更少,隔離穩(wěn)定性更高。 但更細粒度的服務(wù)也意味著更繁瑣的運維監(jiān)控管理,直到今年公司內(nèi)部彈性私有云、緩存云、消息隊列、部署、監(jiān)控、日志等基礎(chǔ)系統(tǒng)日趨完善, 使得實施這類細粒度劃分的微服務(wù)架構(gòu)成為可能,運維成本可控。 而從當(dāng)初 1.0 的 1 種應(yīng)用進程,到 3.0 的 6、7 種應(yīng)用進程,再到 4.0 的 50+ 更細粒度的不同種應(yīng)用進程。 每種進程再根據(jù)承載業(yè)務(wù)流量不同分配不同的實例數(shù),真正的實例進程數(shù)會過千。 為了更好的監(jiān)控和管理這些進程,為此專門定制了一套面向服務(wù)的運維管理系統(tǒng),見下圖。
統(tǒng)一服務(wù)運維提供了實用的內(nèi)部工具和庫來幫助開發(fā)更健壯的微服務(wù)。 包括中心配置管理,流量埋點監(jiān)控,數(shù)據(jù)庫和緩存訪問,運行時隔離,如下圖所示是一個運行隔離的圖示:
細粒度的微服務(wù)做到了進程間隔離,嚴格的開發(fā)規(guī)范和工具庫幫助實現(xiàn)了異步消息和異步 HTTP 來避免多個跨進程的同步長調(diào)用鏈。 進程內(nèi)部通過切面方式引入了服務(wù)增強容器 Armor 來隔離線程, 并支持進程內(nèi)的單獨業(yè)務(wù)降級和同步轉(zhuǎn)異步化執(zhí)行。而所有這些工具和庫服務(wù)都是為了兩個目標(biāo):
- 讓服務(wù)進程運行時狀態(tài)可見
讓服務(wù)進程運行時狀態(tài)可被管理和改變
最后我們回到前文留下的一個懸念,就是關(guān)于消息投遞模型的缺陷。 一開始我們在接入層檢測到終端連接斷開后,消息無法投遞,再將消息緩存下來,等終端重連接上來再拉取離線消息。 這個模型在移動時代表現(xiàn)的很不好,因為移動網(wǎng)絡(luò)的不穩(wěn)定性,導(dǎo)致經(jīng)常斷鏈后重連。 而準(zhǔn)確的檢測網(wǎng)絡(luò)連接斷開是依賴一個網(wǎng)絡(luò)超時的,導(dǎo)致檢測可能不準(zhǔn)確,引發(fā)消息假投遞成功。 新的模型如下圖所示,它不再依賴準(zhǔn)確的網(wǎng)絡(luò)連接檢測,投遞前待確認消息 id 被緩存,而消息體被持久存儲。 等到終端接收確認返回后,該消息才算投妥,未確認的消息 id 再重新登陸后或重連接后作為離線消息推送。 這個模型不會產(chǎn)生消息假投妥導(dǎo)致的丟失,但可能導(dǎo)致消息重復(fù),只需由客戶終端按消息 id 去重即可。
京東咚咚誕生之初正是京東技術(shù)轉(zhuǎn)型到 Java 之時,經(jīng)歷這些年的發(fā)展,取得了很大的進步。 從草根走向?qū)I(yè),從弱小走向規(guī)模,從分散走向統(tǒng)一,從雜亂走向規(guī)范。 本文主要重心放在了幾年來咚咚架構(gòu)演進的過程,技術(shù)架構(gòu)單獨拿出來看我認為沒有絕對的好與不好, 技術(shù)架構(gòu)總是要放在彼時的背景下來看,要考慮業(yè)務(wù)的時效價值、團隊的規(guī)模和能力、環(huán)境基礎(chǔ)設(shè)施等等方面。 架構(gòu)演進的生命周期適時匹配好業(yè)務(wù)的生命周期,才可能發(fā)揮最好的效果。
相關(guān)文章
- 這篇文章主要介紹了了解知乎網(wǎng)站的架構(gòu)演進史,知乎使用Python的異步框架Tornado的經(jīng)驗事例非常經(jīng)典,值得Python學(xué)習(xí)以及愛好者們借鑒,需要的朋友可以參考下2015-12-07
- 現(xiàn)在網(wǎng)購的人越來越多,隨著網(wǎng)購的崛起,各種購物返利網(wǎng)也開始越來越多,返利網(wǎng)也參差不齊,下面跟隨腳本之家的小編一起來看看購物返利網(wǎng)站發(fā)展趨勢吧2014-09-11
建站經(jīng)驗:網(wǎng)站建設(shè)公司發(fā)展必備的22條商規(guī)
22條商規(guī),是一本被神話了的商業(yè)著作,其實它翻來覆都在講一個道理:成為你行業(yè)的標(biāo)桿,然后一切你說了算。記得有位朋友跟我說,22商規(guī)其實只有最后一條定律是最重要的,其2014-07-04- 既然前面做淘寶客的人都是能夠賺那么多的錢,為什么到了現(xiàn)在之后就改變了呢?我們現(xiàn)在大部分為什么不賺錢的,如果想要了解原因,那么這里小編就給大家說說這個到底是什么因2013-08-27
網(wǎng)站走持久發(fā)展路線 必須遠離SEO作弊手段
最近一段時間以來,百度不斷的調(diào)整規(guī)則,是很多網(wǎng)站感到措手不及。在論壇中,引起了一片沸沸揚揚,導(dǎo)致站長們的怨聲載道!規(guī)則的調(diào)整,的確導(dǎo)致了一部分網(wǎng)站出現(xiàn)了各種各樣2013-08-01音樂電臺網(wǎng)站怎么發(fā)展-網(wǎng)絡(luò)創(chuàng)業(yè)-網(wǎng)站運營-網(wǎng)頁教學(xué)網(wǎng)
網(wǎng)友:請教網(wǎng)站贏利模式我現(xiàn)在有個音樂電臺網(wǎng)站,實際就是類似播客類型的,我想用這個網(wǎng)站贏利,我的優(yōu)勢是知道和儲備了不少非主流音樂和各種搖滾音樂類型的定義和其代表音2008-11-04