Maison > développement back-end > Golang > le corps du texte

qu'est-ce qui se passe pprof

青灯夜游
Libérer: 2023-02-01 17:05:15
avant
5231 Les gens l'ont consulté

pprof est l'outil d'analyse des performances de Go. Pendant le processus d'exécution du programme, il peut enregistrer les informations d'exécution du programme, qui peuvent être l'utilisation du processeur, l'utilisation de la mémoire, l'état d'exécution de la goroutine, etc. , ces enregistrements L'information est assez importante. Il existe de nombreuses façons d'utiliser pprof. Go a déjà fourni un "net/http/pprof". Avec quelques lignes de commandes simples, vous pouvez ouvrir pprof, enregistrer des informations en cours d'exécution et fournir des services Web.

qu'est-ce qui se passe pprof

L'environnement d'exploitation de ce tutoriel : système Windows 7, GO version 1.18, ordinateur Dell G3.

go pprof introduction

le profil est généralement appelé analyse de performance La traduction dans le dictionnaire est profil (nom) ou profil (verbe) décrivant... Pour un programme informatique, son profil est constitué de diverses informations générales sur un programme lorsqu'il est en cours d'exécution, notamment l'occupation du processeur, la mémoire, l'état des threads, le blocage des threads, etc. Connaissant ces informations sur le programme, vous pouvez facilement localiser les problèmes et les causes des échecs du programme.

pprof est l'outil d'analyse des performances de Go. Pendant le processus d'exécution du programme, il peut enregistrer les informations d'exécution du programme, qui peuvent être l'utilisation du processeur, l'utilisation de la mémoire, l'état d'exécution de la goroutine, etc. , ces enregistrements L'information est assez importante.

golang prend en charge relativement bien le profilage. La bibliothèque standard fournit les bibliothèques de profils "runtime/pprof" et "net/http/pprof", et fournit également de nombreux outils visuels utiles pour aider les développeurs dans le profilage.

Pour les services en ligne, pour un serveur HTTP, accédez à l'interface HTTP fournie par pprof pour obtenir les données de performances. Bien sûr, en fait, la couche inférieure ici est également appelée la fonction fournie par runtime/pprof, qui est encapsulée dans une interface pour fournir un accès réseau externe. Cet article présente principalement l'utilisation de "net/http/pprof".

Utilisation de base

Il existe de nombreuses façons d'utiliser pprof Go en a déjà une : net/http/pprof Avec quelques lignes de commandes simples, vous pouvez ouvrir pprof, enregistrer les informations en cours d'exécution et fournir With. le service Web, les données en cours d'exécution peuvent être obtenues via le navigateur et la ligne de commande.

Comment activer la surveillance dans les services Web, regardons un exemple simple.

package main

import (
"fmt"
 "net/http"
 _ "net/http/pprof"
)

func main() {
// 开启pprof,监听请求
 ip := "0.0.0.0:8080"
 if err := http.ListenAndServe(ip, nil); err != nil {
 	fmt.Printf("start pprof failed on %s\n", ip)
 }
 dosomething()
}
Copier après la connexion

Importez le package "net/http/pprof" dans le programme et ouvrez le port d'écoute. A ce moment, vous pouvez obtenir le profil du programme. En production réelle, nous encapsulons généralement cette fonction dans une goroutine. Alors, comment le vérifier après l’avoir ouvert ? Il existe trois façons :

Méthode du navigateur

Ouvrez un navigateur et entrez ip:port/debug/pprof et appuyez sur Entrée.

quest-ce qui se passe pprof

pprof fournira de nombreuses données de performances. La signification spécifique est :

  • allocs : informations d'échantillonnage de l'allocation de mémoire
  • blocks : informations d'échantillonnage des opérations de blocage cmdline : commande de démarrage du programme et ses paramètres
  • goroutine : informations de pile de toutes les coroutines actuelles
  • heap : sur le tas informations sur l'utilisation de la mémoire mutex : informations d'échantillonnage sur les conflits de verrouillage
  • profile : informations d'échantillonnage sur l'occupation du processeur
  • threadcreate : informations d'échantillonnage sur la création de threads système
  • trace : informations de suivi du programme en cours d'exécution

allocs C'est l'allocation de mémoire de tous objets, et le tas est l'allocation de mémoire des objets actifs, qui sera décrite en détail plus tard.

1. Lorsque l'analyse des performances du processeur est activée, le runtime Go s'arrêtera toutes les 10 ms pour enregistrer la pile d'appels et les données associées de la goroutine en cours d'exécution. Une fois les données d'analyse des performances enregistrées sur le disque dur, nous pouvons analyser les points chauds du code.
2. L'analyse des performances de la mémoire consiste à enregistrer la pile d'appels lorsque le tas est alloué. Par défaut, des échantillons sont prélevés toutes les 1 000 allocations, mais cette valeur peut être modifiée. L'allocation de pile ne sera pas enregistrée par l'analyse de la mémoire car elle sera libérée à tout moment. Parce que l’analyse de la mémoire est une méthode d’échantillonnage, et aussi parce qu’elle enregistre l’allocation de mémoire, et non l’utilisation de la mémoire. Par conséquent, il est difficile d’utiliser des outils d’analyse des performances de la mémoire pour déterminer avec précision l’utilisation spécifique de la mémoire d’un programme.
3. L'analyse de blocage est une analyse tout à fait unique. Elle est quelque peu similaire à l'analyse des performances du processeur, mais ce qu'elle enregistre, c'est le temps passé par la goroutine à attendre les ressources. L'analyse des blocages est très utile pour analyser les goulots d'étranglement de la concurrence des programmes. L'analyse des performances de blocage peut montrer lorsqu'un grand nombre de goroutines sont bloquées. L'analyse des performances de blocage est un outil d'analyse spécial et ne doit pas être utilisée pour l'analyse avant que les goulots d'étranglement du processeur et de la mémoire n'aient été éliminés.

Bien sûr, si vous cliquez sur un lien, vous constaterez que la lisibilité est mauvaise et presque impossible à analyser. Comme le montre l'image :

quest-ce qui se passe pprof

Cliquez sur le tas et faites défiler vers le bas. Vous pouvez voir des données intéressantes. Parfois, elles peuvent être utiles pour le dépannage, mais elles ne sont généralement pas utilisées.

heap profile: 3190: 77516056 [54762: 612664248] @ heap/1048576
1: 29081600 [1: 29081600] @ 0x89368e 0x894cd9 0x8a5a9d 0x8a9b7c 0x8af578 0x8b4441 0x8b4c6d 0x8b8504 0x8b2bc3 0x45b1c1
#    0x89368d    github.com/syndtr/goleveldb/leveldb/memdb.(*DB).Put+0x59d
#    0x894cd8    xxxxx/storage/internal/memtable.(*MemTable).Set+0x88
#    0x8a5a9c    xxxxx/storage.(*snapshotter).AppendCommitLog+0x1cc
#    0x8a9b7b    xxxxx/storage.(*store).Update+0x26b
#    0x8af577    xxxxx/config.(*config).Update+0xa7
#    0x8b4440    xxxxx/naming.(*naming).update+0x120
#    0x8b4c6c    xxxxx/naming.(*naming).instanceTimeout+0x27c
#    0x8b8503    xxxxx/naming.(*naming).(xxxxx/naming.instanceTimeout)-fm+0x63

......

# runtime.MemStats
# Alloc = 2463648064
# TotalAlloc = 31707239480
# Sys = 4831318840
# Lookups = 2690464
# Mallocs = 274619648
# Frees = 262711312
# HeapAlloc = 2463648064
# HeapSys = 3877830656
# HeapIdle = 854990848
# HeapInuse = 3022839808
# HeapReleased = 0
# HeapObjects = 11908336
# Stack = 655949824 / 655949824
# MSpan = 63329432 / 72040448
# MCache = 38400 / 49152
# BuckHashSys = 1706593
# GCSys = 170819584
# OtherSys = 52922583
# NextGC = 3570699312
# PauseNs = [1052815 217503 208124 233034 ......]
# NumGC = 31
# DebugGC = false
Copier après la connexion
  • Sys: 进程从系统获得的内存空间,虚拟地址空间
  • HeapAlloc:进程堆内存分配使用的空间,通常是用户new出来的堆对象,包含未被gc掉的。
  • HeapSys:进程从系统获得的堆内存,因为golang底层使用TCmalloc机制,会缓存一部分堆内存,虚拟地址空间
  • PauseNs:记录每次gc暂停的时间(纳秒),最多记录256个最新记录。
  • NumGC: 记录gc发生的次数

命令行方式

除了浏览器,Go还提供了命令行的方式,能够获取以上信息,这种方式用起来更方便。

使用命令go tool pprof url可以获取指定的profile文件,此命令会发起http请求,然后下载数据到本地,之后进入交互式模式,就像gdb一样,可以使用命令查看运行信息,以下为使用示例:

# 下载cpu profile,默认从当前开始收集30s的cpu使用情况,需要等待30s
go tool pprof http://localhost:8080/debug/pprof/profile # 30-second CPU profile
go tool pprof http://localhost:8080/debug/pprof/profile?seconds=120 # wait 120s

# 下载heap profile
go tool pprof http://localhost:8080/debug/pprof/heap # heap profile

# 下载goroutine profile
go tool pprof http://localhost:8080/debug/pprof/goroutine # goroutine profile

# 下载block profile
go tool pprof http://localhost:8080/debug/pprof/block # goroutine blocking profile

# 下载mutex profile
go tool pprof http://localhost:8080/debug/pprof/mutex
Copier après la connexion

接下来用一个例子来说明最常用的四个命令:web、top、list、traces

接下来以内存分析举例,cpu和goroutine等分析同理,读者可以自行举一反三。

首先,我们通过命令go tool pprof url获取指定的profile/heap文件,随后自动进入命令行。如图:

2-quest-ce qui se passe pprof

第一步,我们首先输入web命令,这时浏览器会弹出各个函数之间的调用图,以及内存的之间的关系。如图:

quest-ce qui se passe pprof

这个图的具体读法,可参照:中文文档 或者英文文档 这里不多赘述。只需要了解越红越大的方块,有问题的可能性就越大,代表可能占用了更多的内存,如果在cpu的图中代表消耗了更多cpu资源,以此类推。
接下来 top、list、traces三步走可以看出很多想要的结果。

top 按指标大小列出前10个函数,比如内存是按内存占用多少,CPU是按执行时间多少。
top会列出5个统计数据:

  • flat: 本函数占用的内存量。
  • flat%: 本函数内存占使用中内存总量的百分比。
  • sum%: 之前函数flat的累计和。
  • cum:是累计量,假如main函数调用了函数f,函数f占用的内存量,也会记进来。
  • cum%: 是累计量占总量的百分比。

quest-ce qui se passe pprof

这样我们可以看到到底是具体哪些函数占用了多少内存。

当然top后也可以接参数,top n可以列出前n个函数。

list可以查看某个函数的代码,以及该函数每行代码的指标信息,如果函数名不明确,会进行模糊匹配,比如list main会列出main.mainruntime.main。现在list sendToASR试一下。

quest-ce qui se passe pprof

可以看到切片中增加元素时,占用了很多内存,左右2个数据分别是flatcum

traces 打印所有调用栈,以及调用栈的指标信息。使用方式为traces+函数名(模糊匹配)。

quest-ce qui se passe pprof

在命令行之中,还有一个重要的参数 -base,假设我们已经通过命令行得到profile1与profile2,使用go tool pprof -base profile1 profile2,便可以以profile1为基础,得出profile2在profile1之上出现了哪些变化。通过两个时间切片的比较,我们可以清晰的了解到,两个时间节点之中发生的变化,方便我们定位问题(很重要!!!!)

可视化界面

打开可视化界面的方式为:go tool pprof -http=:1234 http://localhost:8080/debug/pprof/heap 其中1234是我们指定的端口

quest-ce qui se passe pprof

Top

quest-ce qui se passe pprof

该视图与前面所讲解的 top 子命令的作用和含义是一样的,因此不再赘述。

Graph

为函数调用图,不在赘述.

Peek

quest-ce qui se passe pprof

Par rapport à la vue Top, cette vue ajoute l'affichage d'informations contextuelles, c'est-à-dire l'appelant/l'appelé de sortie de la fonction.

Source

quest-ce qui se passe pprof

Cette vue ajoute principalement un suivi et une analyse orientés code source, et vous pouvez voir où sa surcharge est principalement consommée.

Flame Graph

1quest-ce qui se passe pprof

correspond au flame graph de consommation des ressources. La lecture du flame graph ne sera pas décrite ici. Ce n'est pas l'objet de cet article.

Le deuxième menu déroulant est tel que le montre la figure :

1quest-ce qui se passe pprof

alloc_objects,alloc_space表示应用程序分配过的资源,不管有没有释放,inuse_objects,inuse_space indique l'allocation régulière par l'application de ressources qui n'ont pas encore été libérées.

NomSignification
inuse_spacequantité de mémoire allouée et non encore libérée
inuse_objectsquantité d'objets alloués et non encore libérés
alloc_spacemontant total de mémoire allouée (indépendamment de la libération)
alloc_objectsmontant total d'objets alloués (indépendamment de la libération)

第一个下拉菜单可以与第二个下拉菜单相组合,可以查看临时变量的火焰图,常驻变量的内存调用图等。

tips

  • 程序运行占用较大的内存,可以通过 inuse_space 来体现.
  • 存在非常频繁的 GC 活动,通常意味着 alloc_space非常高,而程序运行过程中并没有消耗太多的内存(体现为 inuse_space 并不高),当然也可能出现 GC 来不及回收,因此c出现inuse_space 也变高的情况。这种情况下同样会大量消耗CPU。
  • 内存泄漏,通常 alloc_space 较高,且
    inuse_space 也较高。

操作方法

上面我们已经看完了go pprof 的所有操作,接下来讲解一下go tool pprof 的具体使用流程。

  • 通过监控平台监测到内存或cpu问题。
  • 通过浏览器方式大致判断是哪些可能的问题。
  • 通过命令行方式抓取几个时间点的profile
  • 使用web命令查看函数调用图
  • 使用top 、traces、list 命令定位问题
  • 如果出现了goroutine泄漏或者内存泄漏等随着时间持续增长的问题,go tool pprof -base比较两个不同时间点的状态更方便我们定位问题。

具体案例

案例一:goroutine泄漏

启动程序后,用浏览器方式打开profile:

1quest-ce qui se passe pprof

发现内存持续上升,同时goroutine也在持续上升,初步判断,内存泄漏是由于goroutine泄漏导致的。

接下来通过命令行方式抓取goroutine的情况:命令行输入:go tool pprof localhost:8080/debug/pprof/goroutine,获取结果。

分析的流程

一、使用web命令查看调用图,大概了解目前的goroutine的泄露情况:

1quest-ce qui se passe pprof

通过观察,最引入注目的便是runtime.gopark这个函数,这个函数在所有goroutine泄漏时都会出现,并且是大头,接下来我们研究一下这个函数的作用:

func gopark(unlockf func(*g, unsafe.Pointer) bool, lock unsafe.Pointer, reason waitReason, traceEv byte, traceskip int) {
 mp := acquirem()
 gp := mp.curg
 status := readgstatus(gp)
 mp.waitlock = lock
 mp.waitunlockf = unlockf
 gp.waitreason = reason
 mp.waittraceev = traceEv
 mp.waittraceskip = traceskip
 releasem(mp)
 
 mcall(park_m)
}
Copier après la connexion

该函数的作用为:

1、调用acquirem函数:获取当前goroutine所绑定的m,设置各类所需参数。调用 releasem 函数将当前 goroutine 和其 m 的绑定关系解除。

2、调用 park_m 函数:将当前 goroutine 的状态从 _Grunning 切换为 _Gwaiting,也就是等待状态。删除 m 和当前 goroutine m→curg(简称gp)之间的关联。

3、调用 mcall 函数,仅会在需要进行 goroutiine 切换时会被调用:切换当前线程的堆栈,从 g 的堆栈切换到 g0 的堆栈并调用 fn(g) 函数。将 g 的当前 PC/SP 保存在 g->sched 中,以便后续调用 goready 函数时可以恢复运行现场。

综上:该函数的关键作用就是将当前的 goroutine 放入等待状态,这意味着 goroutine 被暂时被搁置了,也就是被运行时调度器暂停了。
所以出现goroutine泄漏一定会调用这个函数,这个函数不是goroutine泄漏的原因,而是goroutine泄漏的结果。

此外,我们发现有两个函数的goroutine的达到了67,很可疑,在我们接下来的验证中要格外留意。

二、使用top命令,获取更加具体的函数信息:

1quest-ce qui se passe pprof

与上面分析的结论相似,我们要将关注点放在三个开启了67个goroutine的函数。

三、traces+函数名,查看调用栈,这一步在函数调用很复杂,无法从调用图里面清晰的看出时使用,帮助我们更清晰的了解函数的调用堆栈:

1quest-ce qui se passe pprof

四、使用list+函数名,查看具体代码的问题。

1quest-ce qui se passe pprof

1quest-ce qui se passe pprof

通过list命令我们可以清楚的看出问题代码是堵塞在哪里。接下来的篇幅我们来分析一下这个问题:

goroutine泄漏知识

什么是goroutine泄漏:如果你启动了一个 goroutine,但并没有符合预期的退出,直到程序结束,此goroutine才退出,这种情况就是 goroutine 泄露。当 goroutine 泄露发生时,该 goroutine 的栈(一般 2k 内存空间起)一直被占用不能释放,goroutine 里的函数在堆上申请的空间也不能被 垃圾回收器 回收。这样,在程序运行期间,内存占用持续升高,可用内存越来也少,最终将导致系统崩溃。
什么时候出现goroutine泄漏:goroutine泄露一般是因为channel操作阻塞而导致整个routine一直阻塞等待或者 goroutine 里有死循环。
具体细分一下:

  • 从 channel 里读,但是没有写。
  • 向 unbuffered channel 写,但是没有读。
  • 向已满的 buffered channel 写,但是没有读。
  • select操作在所有case上阻塞。
  • goroutine进入死循环中,导致资源一直无法释放。

select底层也是channel实现的,如果所有case上的操作阻塞,select内部的channel便会阻塞,goroutine也无法继续执行。所以我们使用channel时一定要格外小心。

通过分析上面两幅图的情况,可以判断是因为select在所有case上死锁了,再深入代码分析,是因为项目中的的语音模型并发能力弱,在语音发包速度快起来的时候无法处理,导致select不满足条件,导致goroutine泄漏,应该在for循环之外加一个asr←nil,保证func2的select一定会满足,同时提高模型的并发能力,使得func1的不会阻塞。
防止goroutine泄漏的建议:

  • 创建goroutine时就要想好该goroutine该如何结束。
  • 使用channel时,要考虑到 channel阻塞时协程可能的行为,是否会创建大量的goroutine。
  • goroutine中不可以存在死循环。

案例二:内存泄漏

我们通过grafana发现内存出现泄漏:

quest-ce qui se passe pprof

这一次我们不使用命令行,而是使用图形化界面来定位问题。
输入 go tool pprof -http=:1234 localhost:8080/debug/pprof/heap:

2quest-ce qui se passe pprof

发现内存占用很有可能是byte.makeSlice()导致的,火焰图看的更加清晰:

2quest-ce qui se passe pprof

而调用byte.makeSlice()的函数为标准库中的ioutil.ReadAll(),接下来我们只需要研究这个标准库函数的实现即可。

func readAll(r io.Reader, capacity int64) (b []byte, err error) {
	buf := bytes.NewBuffer(make([]byte, 0, capacity))
	defer func() {
		e := recover()
		if e == nil {
			return
		}
		if panicErr, ok := e.(error); ok && panicErr == bytes.ErrTooLarge {
			err = panicErr
		} else {
			panic(e)
		}
	}()
	_, err = buf.ReadFrom(r)
	return buf.Bytes(), err
}

// bytes.MinRead = 512
func ReadAll(r io.Reader) ([]byte, error) {
	return readAll(r, bytes.MinRead)
}
Copier après la connexion

可以看到 ioutil.ReadAll 每次都会分配初始化一个大小为 bytes.MinRead 的 buffer ,bytes.MinRead 在 Golang 里是一个常量,值为 512 。就是说每次调用 ioutil.ReadAll 都先会分配一块大小为 512 字节的内存。
接下来看一下ReadFrom函数的实现:

func (b *Buffer) ReadFrom(r io.Reader) (n int64, err error) {
	b.lastRead = opInvalid
	// If buffer is empty, reset to recover space.
	if b.off >= len(b.buf) {
		b.Truncate(0)
	}
	for {
		if free := cap(b.buf) - len(b.buf); free < MinRead {
			// not enough space at end
			newBuf := b.buf
			if b.off+free < MinRead {
				// not enough space using beginning of buffer;
				// double buffer capacity
				newBuf = makeSlice(2*cap(b.buf) + MinRead)
			}
			copy(newBuf, b.buf[b.off:])
			b.buf = newBuf[:len(b.buf)-b.off]
			b.off = 0
		}
		m, e := r.Read(b.buf[len(b.buf):cap(b.buf)])
		b.buf = b.buf[0 : len(b.buf)+m]
		n += int64(m)
		if e == io.EOF {
			break
		}
		if e != nil {
			return n, e
		}
	}
	return n, nil // err is EOF, so return nil explicitly
}
Copier après la connexion

ReadFrom函数主要作用就是从 io.Reader 里读取的数据放入 buffer 中,如果 buffer 空间不够,就按照每次 2x + MinRead 的算法递增,这里 MinRead 的大小也是 512 Bytes 。
项目读取的音频文件一般很大,buffer不够用,会一直调用makeSlice扩容,消耗大量内存,但是仅仅这样,只是程序执行时消耗了比较多的内存,并未有内存泄露的情况,那服务器又是如何内存不足的呢?这就不得不扯到 Golang 的 GC 机制。

GC算法的触发时机

golang的GC算法为三色算法,按理说会回收临时变量,但是触发GC的时机导致了这个问题:

  • 已分配的 Heap 到达某个阈值,会触发 GC, 该阈值由上一次 GC 时的 HeapAlloc 和 GCPercent 共同决定
  • 每 2 分钟会触发一次强制的 GC,将未 mark 的对象释放,但并不还给 OS
  • 每 5 分钟会扫描一个 Heap, 对于一直没有被访问的 Heap,归还给 OS

ioutil.ReadAll会将全部的数据加载到内存,一个大请求会多次调用makeSlice 分配很多内存空间,并发的时候,会在很短时间内占用大量的系统内存,然后将 GC 阈值增加到一个很高的值,这个时候要 GC 就只有等 2 分钟一次的强制 GC。这样内存中的数据无法及时GC,同时阈值还在不停的升高,导致GC的效率越来越低,最终导致缓慢的内存泄漏。

解决方法

//req.AduioPack,err=ioutil.ReadAll(c.Resquest.Body)

buffer:=bytes.NewBuffer(make[]byte,0,6400)
_,err:=io.Copy(buffer,c.Resquest.Body)
temp:=buffer.Bytes()
req.AduioPack=temp
Copier après la connexion

不是一次性把文件读入内存,而是申请固定的内存大小。

【Recommandations associées : Tutoriel vidéo Go, Enseignement de la programmation

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:csdn.net
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal