mirror of
https://github.com/chai2010/advanced-go-programming-book.git
synced 2025-05-30 00:32:21 +00:00
345 lines
9.1 KiB
Markdown
345 lines
9.1 KiB
Markdown
# 6.8 分布式锁
|
||
|
||
在单机程序并发或并行修改全局变量时,需要对修改行为加锁以创造临界区。为什么需要加锁呢?可以看看下段代码:
|
||
|
||
```go
|
||
package main
|
||
|
||
import (
|
||
"sync"
|
||
)
|
||
|
||
// 全局变量
|
||
var counter int
|
||
|
||
func main() {
|
||
var wg sync.WaitGroup
|
||
for i := 0; i < 1000; i++ {
|
||
wg.Add(1)
|
||
go func() {
|
||
defer wg.Done()
|
||
counter++
|
||
}()
|
||
}
|
||
|
||
wg.Wait()
|
||
println(counter)
|
||
}
|
||
```
|
||
|
||
多次运行会得到不同的结果:
|
||
|
||
```shell
|
||
❯❯❯ go run local_lock.go ✭
|
||
945
|
||
❯❯❯ go run local_lock.go ✭
|
||
937
|
||
❯❯❯ go run local_lock.go ✭
|
||
959
|
||
```
|
||
|
||
## 进程内加锁
|
||
|
||
想要得到正确的结果的话,把对 counter 的操作代码部分加上锁:
|
||
|
||
```go
|
||
// ... 省略之前部分
|
||
var wg sync.WaitGroup
|
||
var l sync.Mutex
|
||
for i := 0; i < 1000; i++ {
|
||
wg.Add(1)
|
||
go func() {
|
||
defer wg.Done()
|
||
l.Lock()
|
||
counter++
|
||
l.Unlock()
|
||
}()
|
||
}
|
||
|
||
wg.Wait()
|
||
println(counter)
|
||
// ... 省略之后部分
|
||
```
|
||
|
||
这样就可以稳定地得到计算结果了:
|
||
|
||
```shell
|
||
❯❯❯ go run local_lock.go ✭ ✱
|
||
1000
|
||
```
|
||
|
||
## trylock
|
||
|
||
```go
|
||
package main
|
||
|
||
import (
|
||
"sync"
|
||
)
|
||
|
||
// Lock try lock
|
||
type Lock struct {
|
||
c chan struct{}
|
||
}
|
||
|
||
// NewLock generate a try lock
|
||
func NewLock() Lock {
|
||
var l Lock
|
||
l.c = make(chan struct{}, 1)
|
||
l.c <- struct{}{}
|
||
return l
|
||
}
|
||
|
||
// Lock try lock, return lock result
|
||
func (l Lock) Lock() bool {
|
||
lockResult := false
|
||
select {
|
||
case <-l.c:
|
||
lockResult = true
|
||
default:
|
||
}
|
||
return lockResult
|
||
}
|
||
|
||
// Unlock , Unlock the try lock
|
||
func (l Lock) Unlock() {
|
||
l.c <- struct{}{}
|
||
}
|
||
|
||
var counter int
|
||
|
||
func main() {
|
||
var l = NewLock()
|
||
var wg sync.WaitGroup
|
||
for i := 0; i < 10; i++ {
|
||
wg.Add(1)
|
||
go func() {
|
||
defer wg.Done()
|
||
if !l.Lock() {
|
||
// log error
|
||
println("lock failed")
|
||
return
|
||
}
|
||
counter++
|
||
println("current counter", counter)
|
||
l.Unlock()
|
||
}()
|
||
}
|
||
wg.Wait()
|
||
}
|
||
```
|
||
|
||
因为我们的逻辑限定每个 goroutine 只要成功执行了 Lock 才会继续执行后续逻辑,因此在 Unlock 时可以保证 Lock struct 中的一定是空,从而不会阻塞,也不会失败。
|
||
|
||
在单机系统中,trylock 并不是一个好选择。因为大量的 goroutine 抢锁可能会导致 cpu 无意义的资源浪费。有一个专有名词用来描述这种抢锁的场景:活锁。
|
||
|
||
活锁指的是程序看起来在正常执行,但实际上 cpu 周期被浪费在抢锁,而非执行任务上,从而程序整体的执行效率低下。活锁的问题定位起来要麻烦很多。所以在单机场景下,不建议使用这种锁。
|
||
|
||
## 基于 redis 的 setnx
|
||
|
||
```go
|
||
package main
|
||
|
||
import (
|
||
"fmt"
|
||
"sync"
|
||
"time"
|
||
|
||
"github.com/go-redis/redis"
|
||
)
|
||
|
||
func incr() {
|
||
client := redis.NewClient(&redis.Options{
|
||
Addr: "localhost:6379",
|
||
Password: "", // no password set
|
||
DB: 0, // use default DB
|
||
})
|
||
|
||
var lockKey = "counter_lock"
|
||
var counterKey = "counter"
|
||
|
||
// lock
|
||
resp := client.SetNX(lockKey, 1, time.Second*5)
|
||
lockSuccess, err := resp.Result()
|
||
|
||
if err != nil || !lockSuccess {
|
||
fmt.Println(err, "lock result: ", lockSuccess)
|
||
return
|
||
}
|
||
|
||
// counter ++
|
||
getResp := client.Get(counterKey)
|
||
cntValue, err := getResp.Int64()
|
||
if err == nil {
|
||
cntValue++
|
||
resp := client.Set(counterKey, cntValue, 0)
|
||
_, err := resp.Result()
|
||
if err != nil {
|
||
// log err
|
||
println("set value error!")
|
||
}
|
||
}
|
||
println("current counter is ", cntValue)
|
||
|
||
delResp := client.Del(lockKey)
|
||
unlockSuccess, err := delResp.Result()
|
||
if err == nil && unlockSuccess > 0 {
|
||
println("unlock success!")
|
||
} else {
|
||
println("unlock failed", err)
|
||
}
|
||
}
|
||
|
||
func main() {
|
||
var wg sync.WaitGroup
|
||
for i := 0; i < 10; i++ {
|
||
wg.Add(1)
|
||
go func() {
|
||
defer wg.Done()
|
||
incr()
|
||
}()
|
||
}
|
||
wg.Wait()
|
||
}
|
||
|
||
```
|
||
|
||
```shell
|
||
❯❯❯ go run redis_setnx.go
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
<nil> lock result: false
|
||
current counter is 2028
|
||
unlock success!
|
||
```
|
||
|
||
通过代码和执行结果可以看到,我们远程调用 setnx 实际上和单机的 trylock 非常相似,如果获取锁失败,那么相关的任务逻辑就不应该继续向后执行。
|
||
|
||
setnx 很适合在高并发场景下,用来争抢一些“唯一”的资源。比如交易撮合系统中卖家发起订单,而多个买家会对其进行并发争抢。这种场景我们没有办法依赖具体的时间来判断先后,因为不管是用户设备的时间,还是分布式场景下的各台机器的时间,都是没有办法在合并后保证正确的时序的。哪怕是我们同一个机房的集群,不同的机器的系统时间可能也会有细微的差别。
|
||
|
||
所以,我们需要依赖于这些请求到达 redis 节点的顺序来做正确的抢锁操作。如果用户的网络环境比较差,那也只能自求多福了。
|
||
|
||
## 基于 zk
|
||
|
||
```go
|
||
package main
|
||
|
||
import (
|
||
"fmt"
|
||
"log"
|
||
"os"
|
||
"time"
|
||
|
||
"github.com/nladuo/go-zk-lock"
|
||
)
|
||
|
||
var (
|
||
hosts []string = []string{"127.0.0.1:2181"} // the zookeeper hosts
|
||
basePath string = "/locker" //the application znode path
|
||
lockerTimeout time.Duration = 5 * time.Second // the maximum time for a locker waiting
|
||
zkTimeOut time.Duration = 20 * time.Second // the zk connection timeout
|
||
)
|
||
|
||
func main() {
|
||
end := make(chan byte)
|
||
err := DLocker.EstablishZkConn(hosts, zkTimeOut)
|
||
defer DLocker.CloseZkConn()
|
||
if err != nil {
|
||
fmt.Println(err)
|
||
os.Exit(1)
|
||
}
|
||
|
||
//concurrent test lock and unlock
|
||
for i := 0; i < 100; i++ {
|
||
go run(i)
|
||
}
|
||
<-end
|
||
}
|
||
|
||
func run(i int) {
|
||
locker := DLocker.NewLocker(basePath, lockerTimeout)
|
||
for {
|
||
locker.Lock() // like mutex.Lock()
|
||
fmt.Println("gorountine", i, ": get lock")
|
||
//do something of which time not excceed lockerTimeout
|
||
fmt.Println("gorountine", i, ": unlock")
|
||
if !locker.Unlock() { // like mutex.Unlock(), return false when zookeeper connection error or locker timeout
|
||
log.Println("gorountine", i, ": unlock failed")
|
||
}
|
||
}
|
||
}
|
||
|
||
```
|
||
|
||
## 基于 etcd
|
||
|
||
```go
|
||
package main
|
||
|
||
import (
|
||
"log"
|
||
|
||
"github.com/zieckey/etcdsync"
|
||
)
|
||
|
||
func main() {
|
||
m, err := etcdsync.New("/mylock", 10, []string{"http://127.0.0.1:2379"})
|
||
if m == nil || err != nil {
|
||
log.Printf("etcdsync.New failed")
|
||
return
|
||
}
|
||
err = m.Lock()
|
||
if err != nil {
|
||
log.Printf("etcdsync.Lock failed")
|
||
return
|
||
}
|
||
|
||
log.Printf("etcdsync.Lock OK")
|
||
log.Printf("Get the lock. Do something here.")
|
||
|
||
err = m.Unlock()
|
||
if err != nil {
|
||
log.Printf("etcdsync.Unlock failed")
|
||
} else {
|
||
log.Printf("etcdsync.Unlock OK")
|
||
}
|
||
}
|
||
|
||
```
|
||
|
||
## redlock
|
||
|
||
```go
|
||
import "github.com/amyangfei/redlock-go"
|
||
|
||
lock_mgr, err := redlock.NewRedLock([]string{
|
||
"tcp://127.0.0.1:6379",
|
||
"tcp://127.0.0.1:6380",
|
||
"tcp://127.0.0.1:6381",
|
||
})
|
||
|
||
expirity, err := lock_mgr.Lock("resource_name", 200)
|
||
|
||
err := lock_mgr.UnLock()
|
||
```
|
||
|
||
## how to choose
|
||
|
||
业务还在单机就可以搞定的量级时,那么按照需求使用任意的单机锁方案就可以。
|
||
|
||
如果发展到了分布式服务阶段,但业务规模不大,比如 qps < 1000,使用哪种锁方案都差不多。如果公司内已有可以使用的 zk/etcd/redis 集群,那么就尽量在不引入新的技术栈的情况下满足业务需求。
|
||
|
||
业务发展到一定量级的话,就需要从多方面来考虑了。首先是你的锁是否在任何恶劣的条件下都不允许数据丢失,如果不允许,那么就不要使用 redis 的 setnx 的简单锁。
|
||
|
||
如果要使用 redlock,那么要考虑你们公司 redis 的集群方案,是否可以直接把对应的 redis 的实例的 ip+port 暴露给开发人员。如果不可以,那也没法用。
|
||
|
||
对锁数据的可靠性要求极高的话,那只能使用 etcd 或者 zk 这种通过一致性协议保证数据可靠性的锁方案。但可靠的背面往往都是较低的吞吐量和延迟。需要你根据业务的量级对其进行压力测试,以确保分布式锁所使用的 etcd/zk 集群可以承受得住实际的业务请求压力。需要注意的是,etcd 和 zk 集群是没有办法通过增加节点来提高其性能的。要对其进行横向扩展,只能增加搭建多个集群来支持更多的请求。这会进一步提高对运维和监控的要求。多个集群可能需要引入 proxy,没有 proxy 那就需要业务去根据某个业务 id 来做 sharding。如果业务已经上线的情况下做扩展,还要考虑数据的动态迁移。这些都不是容易的事情。
|
||
|
||
在选择具体的方案时,还是需要多加思考,对风险早做预估。
|