API慢请求问题排查记录「1」
前言
记录一次线上出现的API请求偶现严重慢请求的问题解决过程
需要了解的词
- keep-alive
HTTP keep-alive,又称为HTTP持久连接(HTTP persistent connection)或HTTP连接复用(HTTP connection reuse),指使用同一个TCP连接来发送和接收多个HTTP请求/应答,而不是为每一个新的请求/应答打开新的连接的方法 - gomonkey
通过更改汇编机器码的方式在golang
中实现monkey patch
,原理可见这篇文章
现象
具体现象为在前端页面中的前几次API请求中,大概率出现一次慢请求(4s左右)
通过Apifox
进行接口压力测试也能轻易复现问题,且在一轮3600次的请求中,慢请求基本只出现在前几次请求中
排查思路
整体思路为先由API服务从请求尾端向前查,同步可从客户端往后查
监控
首先看一看经过初步的接口压力测试,我们的接口耗时监控的情况:
完全没有异常的慢请求,最大耗时也仅在45ms
pprof
考虑到监控埋点的范围有限,再使用gin-pprof
(注册pprof的HTTP接口到路由中)尝试抓取profile数据进一步观察:
配置pprof
:
1 | router := gin.Default() |
抓取profile
数据:
1 | kubectl port-forward xxxxxxx-api xxx:xxx |
可以看到最后整个的采样率非常低,考虑到可能是pprof
采样频率的原因(见这篇讨论),重新调整了cpu profile
采样频率
但依旧无法提升我们的采样率,这里暂时卡住了排查进度
trace确认
通过pprof
的交互client
获取明确的调用链:
1 | go tool pprof http://localhost:31888/.../debug/pprof/goroutine |
可以看到业务handler
前,栈底的主要调用链为:
1 | graph TD |
其中gin.(*Engine).ServeHTTP
为底层的http
调用gin
实现的http.Handler
接口中的ServeHTTP(ResponseWriter, *Request)
方法,再往后就会走到我们的业务handler
了
concurrency排查
根据以往开发fasthttp web service
的经验,偶现慢请求还可能是concurrency
设置的不够(golang
大部分web
框架都是一条请求启动一个协程,像fasthttp
中就有一个concurrency
的配置来控制最大并发数)
经过一些文档查询(详见这篇),我确认了gin
框架没有类似fasthttp
的明文配置concurrency
,要在应用层控制其最大并发数一般是通过中间件实现的:
1 | func LimitMiddleware() gin.HandlerFunc { |
而我们的API服务并没有类似的中间件配置,那么这里就只有可能被golang
自己的GOMAXPROCS
变量限制到最大并发数了(参考经典文章Concurrency, Goroutines and GOMAXPROCS)
在golang
中不只是有我们熟知的goroutine
,在其之上还有Processor(P), Machine(M)
的概念,M 是系统线程,是负责真正执行 goroutines 的系统线程。 P 是类似于 CPU 核心的概念,其用来控制并发的 M 数量,下面的两段话很好的解释了这三者的关系:
但我们的API服务中并没有更改过GOMAXPROCS
变量,且pod
的负载也持续很低,到这里并发问题也可以排除了
Gin框架耗时排查
基于上面拿到的的trace
,我们可以知道在我们的业务handler
前就是gin.(*Engine).ServeHTTP
,通过gomonkey
对gin.(*Engine).ServeHTTP
进行monkey patch
,增加时间戳输出打点
1 | router := gin.Default() |
完成后重新尝试触发慢请求,可以看到慢请求耗时在gin.(*Engine).ServeHTTP
前产生:
在16:46:57
时就已经输出了请求的部分信息,但由于url,源ip等信息本身就在http包体的前部,可能后续的网络包还在网关等位置出现了问题,这里我们也不能断定是服务端的问题
客户端排查
做完以上的服务端排查,基本上可以确认服务端没有问题了(除非继续深入到golang
原生http
库,但本身出问题的概率就不大);所以接下来我们反向从客户端开始排查问题,首先确认是否为客户端请求没有使用持久连接导致的偶现慢请求,这里我们使用go-wrk
这个工具来进行压力测试
keep-alive
1 | go-wrk -T 5000 -c 80 -d 5 -H x-token:T0E6OnNtaXRoZGVuZ3x8MTY2NzM1NjgyMTEwMDM1ODM2YzA2YWExOWZhNzE4YmM2NDZjYjNiZThlMGEzMjNhMjg= https://pub1.sngapm.qq.com/api/v2/public/hello |
no keep-alive
1 | go-wrk -no-ka -T 5000 -c 80 -d 5 -H x-token:T0E6OnNtaXRoZGVuZ3x8MTY2NzM1NjgyMTEwMDM1ODM2YzA2YWExOWZhNzE4YmM2NDZjYjNiZThlMGEzMjNhMjg= https://pub1.sngapm.qq.com/api/v2/public/hello |
虽然不重用连接会慢,但都有超长请求,不能说明是客户端没有重用连接导致的
LB排查
在确保客户端请求正确性的前提下依旧能复现慢请求,接下来就要往LB
去排查了,通过服务端日志输出的ip
地址来确认负载均衡指向的机器,很快我们发现慢请求都出现在同一台用于负载均衡的服务器上,去除该问题节点后请求恢复了正常(后续找相关同学确认是LB机器重试未响应的超时时间),耗时稳定在50ms
左右
总结
整体的排查思路没有错,面对网络请求问题从服务端、客户端两头来排查;但在一面难以继续深入排查时需要尽快调转车头转向反向链路进行排查,往往能起到事半功倍的效果