下面是一个简单的并发过高导致程序崩溃的示例:
package main
import (
"fmt"
"math"
"sync"
"time"
)
func main() {
var wg sync.WaitGroup
for i := 0; i < math.MaxInt64; i++ {
wg.Add(1)
go func(i int) {
defer wg.Done()
fmt.Println(i)
time.Sleep(time.Second)
}(i)
}
wg.Wait()
}
这个例子实现了 math.MaxInt64
个协程的并发,约 2^63 个,每个协程内部几乎没有做什么事情。正常的情况下呢,这个程序会乱序输出 1 -> 2^63
个数字。
那实际运行的结果是怎么样的呢?
$ go run main.go
...
6518493
6518494
panic: too many concurrent operations on a single file or socket (max 1048575)
goroutine 7567010 [running]:
internal/poll.(*fdMutex).rwlock(0xc000128060, 0x34?)
/usr/local/go/src/internal/poll/fd_mutex.go:147 +0x108
internal/poll.(*FD).writeLock(...)
/usr/local/go/src/internal/poll/fd_mutex.go:239
internal/poll.(*FD).Write(0xc000128060, {0xc0d8689118, 0x8, 0x8})
/usr/local/go/src/internal/poll/fd_unix.go:368 +0x65
os.(*File).write(...)
/usr/local/go/src/os/file_posix.go:46
os.(*File).Write(0xc000112020, {0xc0d8689118?, 0x8, 0xc0d8641f50?})
/usr/local/go/src/os/file.go:195 +0x4e
fmt.Fprintln({0x4db3e8, 0xc000112020}, {0xc0d8641f90, 0x1, 0x1})
/usr/local/go/src/fmt/print.go:305 +0x6f
fmt.Println(...)
/usr/local/go/src/fmt/print.go:314
main.main.func1(0x0?)
/data/docker/golang/examples/goroutine/main.go:16 +0x7e
created by main.main in goroutine 1
/data/docker/golang/examples/goroutine/main.go:14 +0x39
panic: too many concurrent operations on a single file or socket (max 1048575)
goroutine 7566979 [running]:
internal/poll.(*fdMutex).rwlock(0xc000128060, 0xe5?)
/usr/local/go/src/internal/poll/fd_mutex.go:147 +0x108
internal/poll.(*FD).writeLock(...)
/usr/local/go/src/internal/poll/fd_mutex.go:239
internal/poll.(*FD).Write(0xc000128060, {0xc0d83468f8, 0x8, 0x8})
/usr/local/go/src/internal/poll/fd_unix.go:368 +0x65
os.(*File).write(...)
/usr/local/go/src/os/file_posix.go:46
os.(*File).Write(0xc000112020, {0xc0d83468f8?, 0x8, 0xc01345d750?})
/usr/local/go/src/os/file.go:195 +0x4e
fmt.Fprintln({0x4db3e8, 0xc000112020}, {0xc01345d790, 0x1, 0x1})
/usr/local/go/src/fmt/print.go:305 +0x6f
fmt.Println(...)
/usr/local/go/src/fmt/print.go:314
...
可以看到,程序运行一段时间后直接崩溃,关键的报错信息:
panic: too many concurrent operations on a single file or socket (max 1048575)
对单个 file/socket 的并发操作个数超过了系统上限,这个报错是 fmt.Printf
函数引起的,fmt.Printf
将格式化后的字符串打印到屏幕,即标准输出。在 linux 系统中,标准输出也可以视为文件,内核(kernel)利用文件描述符(file descriptor)来访问文件,标准输出的文件描述符为 1,错误输出文件描述符为 2,标准输入的文件描述符为 0。
简而言之,系统的资源被耗尽了。
那如果我们将 fmt.Printf
这行代码去掉呢?那程序很可能会因为内存不足而崩溃。这一点更好理解,每个协程至少需要消耗 2KB 的空间,那么假设计算机的内存是 2GB,那么至多允许 2GB/2KB = 1M 个协程同时存在。那如果协程中还存在着其他需要分配内存的操作,那么允许并发执行的协程将会数量级地减少。
不同的应用程序,消耗的资源是不一样的。比较推荐的方式的是:应用程序来主动限制并发的协程数量。
可以利用信道 channel 的缓冲区大小来实现:
package main
import (
"log"
"sync"
"time"
)
func main() {
var wg sync.WaitGroup
ch := make(chan int, 4)
for i := 0; i < 12; i++ {
wg.Add(1)
ch <- i
go func(i int) {
defer wg.Done()
time.Sleep(time.Second)
log.Println(<-ch)
}(i)
}
wg.Wait()
close(ch)
}
运行结果如下:
$ go run main_chan.go
2025/04/17 15:46:50 0
2025/04/17 15:46:50 1
2025/04/17 15:46:50 2
2025/04/17 15:46:50 3
2025/04/17 15:46:51 4
2025/04/17 15:46:51 5
2025/04/17 15:46:51 6
2025/04/17 15:46:51 7
2025/04/17 15:46:52 8
2025/04/17 15:46:52 10
2025/04/17 15:46:52 9
2025/04/17 15:46:52 11
从日志中可以很容易看到,每秒钟只并发执行了 4 个任务,达到了协程并发控制的目的。
目前有很多第三方库实现了协程池,可以很方便地用来控制协程的并发数量,比较受欢迎的有:
以 ants
举例, ants 是一个高性能的 goroutine 池,实现了对大规模 goroutine 的调度管理、goroutine 复用,允许使用者在开发并发程序的时候限制 goroutine 数量,复用资源,达到更高效执行任务的效果:
package main
import (
"log"
"time"
"github.com/panjf2000/ants/v2"
)
func main() {
p, _ := ants.NewPoolWithFunc(4, func(i any) {
log.Println(i)
time.Sleep(time.Second)
})
defer p.Release()
for i := 0; i < 12; i++ {
_ = p.Invoke(i)
}
time.Sleep(4 * time.Second)
}
运行结果如下:
$ go run main.go
2025/04/17 16:47:40 3
2025/04/17 16:47:40 1
2025/04/17 16:47:40 0
2025/04/17 16:47:40 2
2025/04/17 16:47:41 4
2025/04/17 16:47:41 5
2025/04/17 16:47:41 6
2025/04/17 16:47:41 7
2025/04/17 16:47:42 8
2025/04/17 16:47:42 10
2025/04/17 16:47:42 9
2025/04/17 16:47:42 11
有些场景下,即使我们有效地限制了协程的并发数量,但是仍旧出现了某一类资源不足的问题,例如:
例如分布式编译加速工具,需要解析 gcc 命令以及依赖的源文件和头文件,有些编译命令依赖的头文件可能有上百个,那这个时候即使我们将协程的并发数限制到 1000,也可能会超过进程运行时并发打开的文件句柄数量,但是分布式编译工具,仅将依赖的源文件和头文件分发到远端机器执行,并不会消耗本机的内存和 CPU 资源,因此 1000 个并发并不高,这种情况下,降低并发数会影响编译加速的效率,那能不能增加进程能同时打开的文件句柄数量呢?
操作系统通常会限制同时打开文件数量、栈空间大小等,ulimit -a
可以看到系统当前的设置:
$ ulimit -a
-t: cpu time (seconds) unlimited
-f: file size (blocks) unlimited
-d: data seg size (kbytes) unlimited
-s: stack size (kbytes) 8192
-c: core file size (blocks) 0
-v: address space (kbytes) unlimited
-l: locked-in-memory size (kbytes) unlimited
-u: processes 1418
-n: file descriptors 12800
我们可以使用 ulimit -n 999999
,将同时打开的文件句柄数量调整为 999999 来解决这个问题,其他的参数也可以按需调整。
虚拟内存是一项非常常见的技术了,即在内存不足时,将磁盘映射为内存使用,比如 linux 下的交换分区(swap space)。
在 linux 上创建并使用交换分区是一件非常简单的事情:
sudo fallocate -l 20G /mnt/.swapfile # 创建 20G 空文件
sudo mkswap /mnt/.swapfile # 转换为交换分区文件
sudo chmod 600 /mnt/.swapfile # 修改权限为 600
sudo swapon /mnt/.swapfile # 激活交换分区
free -m # 查看当前内存使用情况(包括交换分区)
关闭交换分区也非常简单:
sudo swapoff /mnt/.swapfile
rm -rf /mnt/.swapfile
磁盘的 I/O 读写性能和内存条相差是非常大的,例如 DDR3 的内存条读写速率很容易达到 20GB/s,但是 SSD 固态硬盘的读写性能通常只能达到 0.5GB/s,相差 40倍之多。因此,使用虚拟内存技术将硬盘映射为内存使用,显然会对性能产生一定的影响。如果应用程序只是在较短的时间内需要较大的内存,那么虚拟内存能够有效避免 out of memory
的问题。如果应用程序长期高频度读写大量内存,那么虚拟内存对性能的影响就比较明显了。