Stochastic Gradient Descent (SGD) ialah algoritma pengoptimuman yang biasa digunakan untuk pengoptimuman parameter dalam pembelajaran mesin. Dalam artikel ini, kami akan memperkenalkan cara melaksanakan SGD menggunakan bahasa Go (Golang) dan memberikan contoh pelaksanaan.
Idea asas algoritma SGD ialah memilih beberapa sampel secara rawak dalam setiap lelaran dan mengira fungsi kehilangan sampel ini di bawah parameter model semasa . Kecerunan kemudiannya dikira pada sampel ini dan parameter model dikemas kini mengikut arah kecerunan. Proses ini akan diulang beberapa kali sehingga syarat berhenti dipenuhi.
Secara khusus, biarkan $f(x)$ sebagai fungsi kehilangan, $x_i$ ialah vektor ciri bagi sampel $i$-th, $y_i$ ialah output bagi sampel $i$-th , $w $ ialah parameter model semasa dan formula kemas kini SGD ialah:
$$w = w - alpha nabla f(x_i, y_i, w)$$
di mana $ alpha$ ialah kadar pembelajaran (kadar pembelajaran), $nabla f(x_i, y_i, w)$ mewakili pengiraan kecerunan fungsi kehilangan sampel $i$th di bawah parameter model semasa.
Perpustakaan yang diperlukan untuk melaksanakan algoritma SGD di Golang ialah: gonum
, gonum/mat
dan gonum/stat
. Antaranya, gonum
ialah perpustakaan matematik yang menyediakan banyak fungsi matematik yang biasa digunakan, gonum/mat
ialah perpustakaan untuk memproses matriks dan vektor, dan gonum/stat
menyediakan fungsi statistik (seperti min, sisihan piawai, dll.).
Berikut ialah pelaksanaan Golang yang mudah:
package main import ( "fmt" "math/rand" "gonum.org/v1/gonum/mat" "gonum.org/v1/gonum/stat" ) func main() { // 生成一些随机的数据 x := mat.NewDense(100, 2, nil) y := mat.NewVecDense(100, nil) for i := 0; i < x.RawMatrix().Rows; i++ { x.Set(i, 0, rand.Float64()) x.Set(i, 1, rand.Float64()) y.SetVec(i, float64(rand.Intn(2))) } // 初始化模型参数和学习率 w := mat.NewVecDense(2, nil) alpha := 0.01 // 迭代更新模型参数 for i := 0; i < 1000; i++ { // 随机选取一个样本 j := rand.Intn(x.RawMatrix().Rows) xi := mat.NewVecDense(2, []float64{x.At(j, 0), x.At(j, 1)}) yi := y.AtVec(j) // 计算损失函数梯度并更新模型参数 gradient := mat.NewVecDense(2, nil) gradient.SubVec(xi, w) gradient.ScaleVec(alpha*(yi-gradient.Dot(xi)), xi) w.AddVec(w, gradient) } // 输出模型参数 fmt.Println(w.RawVector().Data) }
Set data pelaksanaan ini ialah matriks $100 kali 2$, setiap baris mewakili sampel dan setiap sampel mempunyai dua ciri . Label $y$ ialah vektor $100 darab 1$ dengan setiap elemen sama ada 0 atau 1. Bilangan lelaran dalam kod ialah 1000 dan kadar pembelajaran $alpha$ ialah 0.01.
Dalam setiap lelaran, sampel dipilih secara rawak dan kecerunan fungsi kehilangan dikira pada sampel ini. Selepas pengiraan kecerunan selesai, kemas kini parameter model menggunakan formula di atas. Akhirnya, parameter model adalah output.
Artikel ini memperkenalkan cara menggunakan Golang untuk melaksanakan algoritma SGD dan memberikan contoh mudah. Dalam aplikasi praktikal, terdapat juga beberapa variasi algoritma SGD, seperti SGD dengan momentum, AdaGrad, Adam, dsb. Pembaca boleh memilih algoritma yang hendak digunakan berdasarkan keperluan mereka sendiri.
Atas ialah kandungan terperinci Bagaimana untuk melaksanakan sgd di golang. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!