本篇文章带大家聊聊Golang的协程泄露,介绍一下Go怎么预防泄露,希望对大家有所帮助!

协程在Go里面是一个常见的概念,伴随着Go程序的生命周期开始至结束。今天来细聊Go的协程泄露。【相关推荐:Go视频教程】
泄露案例
关于协程泄露很多时候我们往往会忽略它,直到机器资源负载异常才引起重视。
之前排除生产环境异常的时候,曾经遇到过go程序内存泄露的场景,内存泄漏和协程泄露有很大关系,本质上都是资源不回收导致的。
这里列举一个典型的泄露案例:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | func JumpForSignal() int {
ch := make(chan int)
go func() {
ch <- bizMtx
}()
go func() {
ch <- bizMtx
}()
go func() {
ch <- bizMtx
}()
return <-ch
}
func main() {
JumpForSignal()
}
|
登录后复制
事后分析这个demo可以得知,这个函数调用会阻塞两个子协程,预期只有一个协程会正常退出。
获取协程信息
既然存在协程泄露,我们在日常工作怎么避免或者发现它呢?下面我们列举几个思路。
遵守准则
由于Go是自带GC的语言,很多时候写代码不需要关心变量的资源释放,不像C程序员变量申请之后需要在结束处释放。但是Go的chan
在使用时候是有一些准则的,当确定chan不再使用时候,可以在输出方进行close,避免其他协程还在等待该chan
的输出。
协程数量
找到泄露的协程,第一个能够想到的是协程数量,当你的函数处理逻辑比较简单,除了主协程之外,预期协程应该都在结束前返回,可以在main函数结束处调用runtime
包的函数:
1 2 3 4 | func NumGoroutine() int {
return int(gcount())
}
|
登录后复制
通过它可以返回当前协程总数量:
1 2 3 4 5 6 7 8 9 | func Count () {
fmt.Printf( "Number of goroutines:%d\n" , runtime.NumGoroutine())
}
func main() {
defer Count ()
Count ()
JumpForSignal()
}
|
登录后复制
输出:
1 2 | Number of goroutines:1
Number of goroutines:3
|
登录后复制
协程函数栈
还有一种比较常见定位协程的形式,在Go里面,可以用于分析协程函数的上下文,常见的比如go自带的pprof也是通过这种方式获取,实际案例中,条件允许的情况可以开启pprof方便分析。
下面来看一个示例,我们在上面的例子加一个http
端口监听,用于接入go自带的pprof分析工具。
随后在浏览器输入:
可以得到整个程序的协程列表:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 | goroutine profile: total 7
1 @ 0x165eb6 0x126465 0x126235 0x29341e 0x19de01
# 0x29341d pixelgo/leak.JumpForSignal.func1+0x3d F:/code/pixelGo/src/pix-demo/leak/leak.go:24
1 @ 0x165eb6 0x126465 0x126235 0x29347e 0x19de01
# 0x29347d pixelgo/leak.JumpForSignal.func2+0x3d F:/code/pixelGo/src/pix-demo/leak/leak.go:28
1 @ 0x165eb6 0x15bb3d 0x1975a5 0x228d05 0x229d8d 0x22c40d 0x321765 0x33437c 0x447c89 0x285239 0x285606 0x4493f3 0x450da8 0x19de01
# 0x1975a4 internal/poll.runtime_pollWait+0x64 D:/dev/go1.16/src/runtime/netpoll.go:227
# 0x228d04 internal/poll.(*pollDesc).wait+0xa4 D:/dev/go1.16/src/internal/poll/fd_poll_runtime.go:87
# 0x229d8c internal/poll.execIO+0x2ac D:/dev/go1.16/src/internal/poll/fd_windows.go:175
# 0x22c40c internal/poll.(*FD).Read+0x56c
|
登录后复制
结论是:当前程序一共有7个协程,可以看出分别有1个协程分配在F:/code/pixelGo/src/pix-demo/leak/leak.go:24
和F:/code/pixelGo/src/pix-demo/leak/leak.go:28
,正是上文泄露的代码块。
有时候还可以多维度去分析,比如输入:
可以通过协程后面的标签,看到当前协程的不同状态,running/io wait/chan send
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 | goroutine 9 [running]:
runtime/pprof.writeGoroutineStacks(0x7f7d00, 0xc0000aa000, 0x0, 0x0)
D:/dev/go1.16/src/runtime/pprof/pprof.go:693 +0xc5
net/http/pprof.handler.ServeHTTP(0xc000094011, 0x9, 0x7fba40, 0xc0000aa000, 0xc000092000)
goroutine 1 [IO wait]:
internal/poll.runtime_pollWait(0x223debb10d8, 0x72, 0xc000152f48)
D:/dev/go1.16/src/runtime/netpoll.go:227 +0x65
internal/poll.(*pollDesc).wait(0xc0001530b8, 0x72, 0x93b400, 0x0, 0x0)
goroutine 6 [chan send]:
pixelgo/rout.JumpForSignal.func1(0xc000053800)
F:/code/pixelGo/src/pix-demo/rout/leak.go:25 +0x10e
created by pixelgo/rout.JumpForSignal
F:/code/pixelGo/src/pix-demo/rout/leak.go:23 +0x71
goroutine 7 [chan send]:
pixelgo/rout.JumpForSignal.func2(0xc000053800)
F:/code/pixelGo/src/pix-demo/rout/leak.go:30 +0x10e
created by pixelgo/rout.JumpForSignal
F:/code/pixelGo/src/pix-demo/rout/leak.go:28 +0x93
|
登录后复制
协程id
接下来我们来探索协程标识:协程id,在Go中,每个运行的协程都会分配一个协程id,一个常见的方式是从函数运行栈获取,引用之前网上其他同学的写法:
1 2 3 4 5 6 7 8 9 10 11 12 | func main() {
fmt.Println(getGID())
}
func getGID() uint64 {
b := make([]byte, 64)
b = b[:runtime.Stack(b, false)]
b = bytes.TrimPrefix(b, []byte( "goroutine " ))
b = b[:bytes.IndexByte(b, ' ')]
n, _ := strconv.ParseUint(string(b), 10, 64)
return n
}
|
登录后复制
我们来看看runtime.stack()
会返回什么呢,其中真实内容是这样的:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 | goroutine 21 [running]:
leaktest.interestingGoroutines(0xdb9980, 0xc00038e018, 0x0, 0x0, 0x0)
F:/code/pixelGo/src/leaktest/leaktest.go:81 +0xbf
leaktest.CheckContext(0xdbe398, 0xc000108040, 0xdb9980, 0xc00038e018, 0x0)
F:/code/pixelGo/src/leaktest/leaktest.go:141 +0x6e
leaktest.CheckTimeout(0xdb9980, 0xc00038e018, 0x3b9aca00, 0x0)
F:/code/pixelGo/src/leaktest/leaktest.go:127 +0xe5
leaktest.TestCheck.func8(0xc000384780)
F:/code/pixelGo/src/leaktest/leaktest_test.go:122 +0xaf
testing.tRunner(0xc000384780, 0xc000100050)
D:/dev/go1.16/src/testing/testing.go:1193 +0x1a3
created by testing.(*T).Run
D:/dev/go1.16/src/testing/testing.go:1238 +0x63c
goroutine 1 [chan receive]:
testing.(*T).Run(0xc000037080, 0xd8486a, 0x9, 0xd9ebc8, 0x304bd824304bd800)
D:/dev/go1.16/src/testing/testing.go:1239 +0x66a
testing.runTests.func1(0xc000036f00)
D:/dev/go1.16/src/testing/testing.go:1511 +0xbd
testing.tRunner(0xc000036f00, 0xc00008fc00)
D:/dev/go1.16/src/testing/testing.go:1193 +0x1a3
testing.runTests(0xc0000040d8, 0xf40460, 0x5, 0x5, 0x0, 0x0, 0x0, 0x21cbf1c0100)
D:/dev/go1.16/src/testing/testing.go:1509 +0x448
testing.(*M).Run(0xc0000c0000, 0x0)
D:/dev/go1.16/src/testing/testing.go:1417 +0x514
main.main()
_testmain.go:51 +0xc8
|
登录后复制
可以发现这个栈和我们运行panic抛出的信息非常类似,需要注意的是,通过这种方式获取协程id并不是一个高效的方式。
实际生产使用过程并不提倡,值得一提的是,为了方便我们更好的定位问题上下文,有时候日志框架又需要我们打印出当前协程id。
比如这是一个生产案例日志输出:
1 2 3 4 5 6 7 8 9 10 | [0224/162532.310:INFO:gid-1:yx_trace.go:66] cfg:&{ false false [] 0xc000295140 0xc0001d4e00 <nil> <nil> <nil>}
[0224/162532.320:INFO:gid-1:main.go:50] GameRoom Startup->
[0224/162532.320:INFO:gid-1:config_manager.go:107] configManager SetHttpListenAddr:8080
[0224/162532.320:INFO:gid-1:room_manager.go:57] roomManager Startup
[0224/162532.323:INFO:gid-1:room_manager.go:72] roomManager initPrx.
[0224/162532.330:INFO:gid-1:bootstrap.go:153] GameRoom START ok.
[0224/162533.277:INFO:gid-60:expose.go:36] Start for HTTP server...
[0224/162533.277:INFO:gid-60:expose.go:39] register for debug server...
|
登录后复制
往往日志框架是力求对业务性能影响最低的,既然有性能顾虑,那么它是怎么获取协程id的呢?只能曲线救国了。
还有一个解法,其实在Go中,每个协程绑定的系统线程结构中,有一个g指针,拿到g指针的信息之后,根据g指针结构的偏移量(注意不同go版本可能不同),指定获取id。
汇编获取
通过协程绑定的g指针,这里参考《Go高级编程》的做法
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 | var offsetDictMap = map[string]int64{
"go1.12" : 152,
"go1.12.1" : 152,
"go1.12.2" : 152,
"go1.12.3" : 152,
"go1.12.4" : 152,
"go1.12.5" : 152,
"go1.12.6" : 152,
"go1.12.7" : 152,
"go1.13" : 152,
"go1.14" : 152,
"go1.16.12" : 152,
}
var goid_offset uintptr = 152
func getG() interface {}
func GoId() int64
TEXT ·getGptr(SB), NOSPLIT, $0 -8
MOVQ (TLS), BX
MOVQ BX, ret+0(FP)
RET
TEXT ·GoId(SB),NOSPLIT, $0 -8
NO_LOCAL_POINTERS
MOVQ ·goid_offset(SB),AX
MOVQ (TLS),BX
ADDQ BX,AX
MOVQ (AX),BX
MOVQ BX,ret+0(FP)
RET
|
登录后复制
这里点到为止,大概思路是这样。
性能比较:
我们来简单测试下两种获取go协程id方式性能差距:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 | func BenchmarkGRtId(b *testing.B) {
for n := 0; n < 1000000000; n++ {
getGID()
}
}
func BenchmarkGoId(b *testing.B) {
for n := 0; n < 1000000000; n++ {
GoId()
}
}
|
登录后复制
可以看到通过汇编方式获取协程id的方式性能更优,相差几个数量级。
限制协程
上面列举了几个定位协程信息的方法,那么在协程泄露之前有没有其他方式对程序的go协程进行管控呢,有个做法是使用强大的channel坐下限制。
抛砖引玉
这里先提供一个简单的思路,即再包装一层channel
进行保护,
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | var LIMIT_G_NUM = make(chan struct{}, 100)
type HandleFun func()
func AsyncGoForHandle(fn HandleFun) {
LIMIT_G_NUM <- struct{}{}
go func() {
defer func() {
if err := recover(); err != nil {
log.Fatalf( "AsyncGoForHandle recover from err: %v" , err)
}
<-LIMIT_G_NUM
}()
fn()
}()
}
|
登录后复制
上面的思路比较简单,相信大家能看懂,每次需要异步创建协程只要调用AsyncGoForHandle()
函数即可,不足之处可能是处理逻辑HandleFun()
不够通用,需要自己定义具体实现。
还有一种方式,就是引入协程池的概念,这里的池子和数据库连接池有点像,即一开始就预创建好,业务层只要负责提交数据,业界已经有不少成熟的封装。
成熟方案:tunny
之前看到社区有一个封装得比较完善的协程池tunny,代码行数不多,我们来试着拆解分析一下代码,项目地址:https://github.com/Jeffail/tunny
1、定义处理逻辑接口:
1 2 3 4 | type Worker interface {
Process( interface {}) interface {}
}
|
登录后复制
2、包装worker的输入源workRequest
1 2 3 4 5 6 7 8 9 10 | type workerWrapper struct {
worker Worker
interruptChan chan struct{}
reqChan chan<- workRequest
}
|
登录后复制
3、输入源结构
1 2 3 4 5 6 7 8 9 | type workRequest struct {
jobChan chan<- interface {}
retChan <-chan interface {}
}
|
登录后复制
4、编写实现类:
我们知道Go的接口遵循鸭子模型: 只要它表现得像个鸭子,它就是鸭子
1 2 3 4 5 6 7 8 | type closureWorker struct {
processor func( interface {}) interface {}
}
func (w *closureWorker) Process(payload interface {}) interface {} {
return w.processor(payload)
}
|
登录后复制
5、定义工作池结构
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 | type Pool struct {
queuedJobs int64
ctor func() Worker
workers []*workerWrapper
reqChan chan workRequest
workerMut sync.Mutex
}
func NewFunc(n int, f func( interface {}) interface {}) *Pool {
return New(n, func() Worker {
return &closureWorker{
processor: f,
}
})
}
func New(n int, ctor func() Worker) *Pool {
p := &Pool{
ctor: ctor,
reqChan: make(chan workRequest),
}
p.SetSize(n)
return p
}
|
登录后复制
相关实体结构如下,配合源码阅读就比较清晰了。

这个框架相当于把协程预先创建好做了池化,随后业务层只需要源源不断把"加工数据"输入到workRequest
这个chan即可,也就是process()
函数,process()
模块会把数据输入到内部channel
进行处理,池中的worker
会进行加工。
这种工厂模式还是值得借鉴的,Go也有很多成熟框架使用了这种写法。
引用原项目README.md的用法示例:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 | numCPUs := runtime.NumCPU()
pool := tunny.NewFunc(numCPUs, func(payload interface {}) interface {} {
var result []byte
result = wrapSomething()
return result
})
defer pool.Close()
http.HandleFunc( "/work" , func(w http.ResponseWriter, r *http.Request) {
input, err := ioutil.ReadAll(r.Body)
if err != nil {
http.Error(w, "Internal error" , http.StatusInternalServerError)
}
defer r.Body.Close()
result := pool.Process(input)
w.Write(result.([]byte))
})
http.ListenAndServe( ":8080" , nil)
|
登录后复制
总结
更多编程相关知识,请访问:编程视频!!
以上是聊聊Golang的协程泄露,看看怎么预防泄露的详细内容。更多信息请关注PHP中文网其他相关文章!