Golang分布式鎖詳細介紹
在單機程序并發(fā)或并行修改全局變量時,需要對修改行為加鎖以創(chuàng)造臨界區(qū)。為什么需要加鎖呢?可以看看下段代碼:
package main import ( "sync" ) // 全局變量 var counter int func main() { var wg sync.WaitGroup for i := 0; i < 1000; i++ { wg.Add(1) go func() { defer wg.Done() counter++ }() } wg.Wait() println(counter) }
多次運行會得到不同的結(jié)果:
??? go run local_lock.go
945
??? go run local_lock.go
937
??? go run local_lock.go
959
進程內(nèi)加鎖
想要得到正確的結(jié)果的話,把對 counter 的操作代碼部分加上鎖:
// ... 省略之前部分 var wg sync.WaitGroup var l sync.Mutex for i := 0; i < 1000; i++ { wg.Add(1) go func() { defer wg.Done() l.Lock() counter++ l.Unlock() }() } wg.Wait() println(counter) // ... 省略之后部分
這樣就可以穩(wěn)定地得到計算結(jié)果了:
??? go run local_lock.go
1000
trylock
package main import ( "sync" ) // Lock try lock type Lock struct { c chan struct{} } // NewLock generate a try lock func NewLock() Lock { var l Lock l.c = make(chan struct{}, 1) l.c <- struct{}{} return l } // Lock try lock, return lock result func (l Lock) Lock() bool { lockResult := false select { case <-l.c: lockResult = true default: } return lockResult } // Unlock , Unlock the try lock func (l Lock) Unlock() { l.c <- struct{}{} } var counter int func main() { var l = NewLock() var wg sync.WaitGroup for i := 0; i < 10; i++ { wg.Add(1) go func() { defer wg.Done() if !l.Lock() { // log error println("lock failed") return } counter++ println("current counter", counter) l.Unlock() }() } wg.Wait() }
因為我們的邏輯限定每個 goroutine 只有成功執(zhí)行了 Lock 才會繼續(xù)執(zhí)行后續(xù)邏輯,因此在 Unlock 時可以保證 Lock struct 中的 channel 一定是空,從而不會阻塞,也不會失敗。
在單機系統(tǒng)中,trylock 并不是一個好選擇。因為大量的 goroutine 搶鎖可能會導(dǎo)致 cpu 無意義的資源浪費。有一個專有名詞用來描述這種搶鎖的場景:活鎖。
活鎖指的是程序看起來在正常執(zhí)行,但實際上 cpu 周期被浪費在搶鎖,而非執(zhí)行任務(wù)上,從而程序整體的執(zhí)行效率低下?;铈i的問題定位起來要麻煩很多。所以在單機場景下,不建議使用這種鎖。
基于redis的setnx
package main import ( "fmt" "sync" "time" "github.com/go-redis/redis" ) func incr() { client := redis.NewClient(&redis.Options{ Addr: "localhost:6379", Password: "", // no password set DB: 0, // use default DB }) var lockKey = "counter_lock" var counterKey = "counter" // lock resp := client.SetNX(lockKey, 1, time.Second*5) lockSuccess, err := resp.Result() if err != nil || !lockSuccess { fmt.Println(err, "lock result: ", lockSuccess) return } // counter ++ getResp := client.Get(counterKey) cntValue, err := getResp.Int64() if err == nil { cntValue++ resp := client.Set(counterKey, cntValue, 0) _, err := resp.Result() if err != nil { // log err println("set value error!") } } println("current counter is ", cntValue) delResp := client.Del(lockKey) unlockSuccess, err := delResp.Result() if err == nil && unlockSuccess > 0 { println("unlock success!") } else { println("unlock failed", err) } } func main() { var wg sync.WaitGroup for i := 0; i < 10; i++ { wg.Add(1) go func() { defer wg.Done() incr() }() } wg.Wait() }
看看運行結(jié)果:
??? go run redis_setnx.go
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
<nil> lock result: false
current counter is 2028
unlock success!
通過代碼和執(zhí)行結(jié)果可以看到,我們遠程調(diào)用 setnx 實際上和單機的 trylock 非常相似,如果獲取鎖失敗,那么相關(guān)的任務(wù)邏輯就不應(yīng)該繼續(xù)向前執(zhí)行。
setnx 很適合在高并發(fā)場景下,用來爭搶一些“唯一”的資源。比如交易撮合系統(tǒng)中賣家發(fā)起訂單,而多個買家會對其進行并發(fā)爭搶。這種場景我們沒有辦法依賴具體的時間來判斷先后,因為不管是用戶設(shè)備的時間,還是分布式場景下的各臺機器的時間,都是沒有辦法在合并后保證正確的時序的。哪怕是我們同一個機房的集群,不同的機器的系統(tǒng)時間可能也會有細微的差別。
所以,我們需要依賴于這些請求到達 redis 節(jié)點的順序來做正確的搶鎖操作。如果用戶的網(wǎng)絡(luò)環(huán)境比較差,那也只能自求多福了。
基于zk
package main import ( "time" "github.com/samuel/go-zookeeper/zk" ) func main() { c, _, err := zk.Connect([]string{"127.0.0.1"}, time.Second) //*10) if err != nil { panic(err) } l := zk.NewLock(c, "/lock", zk.WorldACL(zk.PermAll)) err = l.Lock() if err != nil { panic(err) } println("lock succ, do your business logic") time.Sleep(time.Second * 10) // do some thing l.Unlock() println("unlock succ, finish business logic") }
基于 zk 的鎖與基于 redis 的鎖的不同之處在于 Lock 成功之前會一直阻塞,這與我們單機場景中的 mutex.Lock 很相似。
其原理也是基于臨時 sequence 節(jié)點和 watch api,例如我們這里使用的是 /lock
節(jié)點。Lock 會在該節(jié)點下的節(jié)點列表中插入自己的值,只要節(jié)點下的子節(jié)點發(fā)生變化,就會通知所有 watch 該節(jié)點的程序。這時候程序會檢查當(dāng)前節(jié)點下最小的子節(jié)點的 id 是否與自己的一致。如果一致,說明加鎖成功了。
這種分布式的阻塞鎖比較適合分布式任務(wù)調(diào)度場景,但不適合高頻次持鎖時間短的搶鎖場景。按照 Google 的 chubby 論文里的闡述,基于強一致協(xié)議的鎖適用于 粗粒度
的加鎖操作。這里的粗粒度指鎖占用時間較長。我們在使用時也應(yīng)思考在自己的業(yè)務(wù)場景中使用是否合適。
基于etcd
package main import ( "log" "github.com/zieckey/etcdsync" ) func main() { m, err := etcdsync.New("/lock", 10, []string{"http://127.0.0.1:2379"}) if m == nil || err != nil { log.Printf("etcdsync.New failed") return } err = m.Lock() if err != nil { log.Printf("etcdsync.Lock failed") return } log.Printf("etcdsync.Lock OK") log.Printf("Get the lock. Do something here.") err = m.Unlock() if err != nil { log.Printf("etcdsync.Unlock failed") } else { log.Printf("etcdsync.Unlock OK") } }
etcd 中沒有像 zookeeper 那樣的 sequence 節(jié)點。所以其鎖實現(xiàn)和基于 zookeeper 實現(xiàn)的有所不同。在上述示例代碼中使用的 etcdsync 的 Lock 流程是:
- 先檢查
/lock
路徑下是否有值,如果有值,說明鎖已經(jīng)被別人搶了 - 如果沒有值,那么寫入自己的值。寫入成功返回,說明加鎖成功。寫入時如果節(jié)點被其它節(jié)點寫入過了,那么會導(dǎo)致加鎖失敗,這時候到 3
- watch
/lock
下的事件,此時陷入阻塞 - 當(dāng)
/lock
路徑下發(fā)生事件時,當(dāng)前進程被喚醒。檢查發(fā)生的事件是否是刪除事件(說明鎖被持有者主動 unlock),或者過期事件(說明鎖過期失效)。如果是的話,那么回到 1,走搶鎖流程。
redlock
package main import ( "fmt" "time" "github.com/garyburd/redigo/redis" "gopkg.in/redsync.v1" ) func newPool(server string) *redis.Pool { return &redis.Pool{ MaxIdle: 3, IdleTimeout: 240 * time.Second, Dial: func() (redis.Conn, error) { c, err := redis.Dial("tcp", server) if err != nil { return nil, err } return c, err }, TestOnBorrow: func(c redis.Conn, t time.Time) error { _, err := c.Do("PING") return err }, } } func newPools(servers []string) []redsync.Pool { pools := []redsync.Pool{} for _, server := range servers { pool := newPool(server) pools = append(pools, pool) } return pools } func main() { pools := newPools([]string{"127.0.0.1:6379", "127.0.0.1:6378", "127.0.0.1:6377"}) rs := redsync.New(pools) m := rs.NewMutex("/lock") err := m.Lock() if err != nil { panic(err) } fmt.Println("lock success") unlockRes := m.Unlock() fmt.Println("unlock result: ", unlockRes) }
redlock 也是一種阻塞鎖,單個節(jié)點操作對應(yīng)的是 set nx px
命令,超過半數(shù)節(jié)點返回成功時,就認(rèn)為加鎖成功。
關(guān)于 redlock 的設(shè)計曾經(jīng)在社區(qū)引起一場口水戰(zhàn),分布式專家各抒己見。不過這個不是我們要討論的內(nèi)容,相關(guān)鏈接在參考資料中給出。
如何選擇
業(yè)務(wù)還在單機就可以搞定的量級時,那么按照需求使用任意的單機鎖方案就可以。
如果發(fā)展到了分布式服務(wù)階段,但業(yè)務(wù)規(guī)模不大,比如 qps < 1000,使用哪種鎖方案都差不多。如果公司內(nèi)已有可以使用的 zk/etcd/redis 集群,那么就盡量在不引入新的技術(shù)棧的情況下滿足業(yè)務(wù)需求。
業(yè)務(wù)發(fā)展到一定量級的話,就需要從多方面來考慮了。首先是你的鎖是否在任何惡劣的條件下都不允許數(shù)據(jù)丟失,如果不允許,那么就不要使用 redis 的 setnx 的簡單鎖。
如果要使用 redlock,那么要考慮你們公司 redis 的集群方案,是否可以直接把對應(yīng)的 redis 的實例的 ip+port 暴露給開發(fā)人員。如果不可以,那也沒法用。
對鎖數(shù)據(jù)的可靠性要求極高的話,那只能使用 etcd 或者 zk 這種通過一致性協(xié)議保證數(shù)據(jù)可靠性的鎖方案。但可靠的背面往往都是較低的吞吐量和較高的延遲。需要根據(jù)業(yè)務(wù)的量級對其進行壓力測試,以確保分布式鎖所使用的 etcd/zk 集群可以承受得住實際的業(yè)務(wù)請求壓力。需要注意的是,etcd 和 zk 集群是沒有辦法通過增加節(jié)點來提高其性能的。要對其進行橫向擴展,只能增加搭建多個集群來支持更多的請求。這會進一步提高對運維和監(jiān)控的要求。多個集群可能需要引入 proxy,沒有 proxy 那就需要業(yè)務(wù)去根據(jù)某個業(yè)務(wù) id 來做 sharding。如果業(yè)務(wù)已經(jīng)上線的情況下做擴展,還要考慮數(shù)據(jù)的動態(tài)遷移。這些都不是容易的事情。
在選擇具體的方案時,還是需要多加思考,對風(fēng)險早做預(yù)估。
到此這篇關(guān)于Golang分布式鎖詳細介紹的文章就介紹到這了,更多相關(guān)Go分布式鎖內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
解決Golang并發(fā)工具Singleflight的問題
前段時間在一個項目里使用到了分布式鎖進行共享資源的訪問限制,后來了解到Golang里還能夠使用singleflight對共享資源的訪問做限制,于是利用空余時間了解,將知識沉淀下來,并做分享2022-05-05golang解析網(wǎng)頁利器goquery的使用方法
這篇文章主要給大家介紹了關(guān)于golang解析網(wǎng)頁利器goquery的使用方法,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考借鑒,下面來一起學(xué)習(xí)學(xué)習(xí)吧。2017-09-09利用 Go 語言編寫一個簡單的 WebSocket 推送服務(wù)
這篇文章主要介紹了利用 Go 語言編寫一個簡單的 WebSocket 推送服務(wù),需要的朋友可以參考下2018-04-04