Penyelarasan Tikhonov
Penyaturan Tikhonov, juga dikenali sebagai regresi rabung atau regularisasi L2, ialah kaedah regularisasi yang digunakan untuk regresi linear. Ia mengawal kerumitan dan keupayaan generalisasi model dengan menambahkan istilah penalti norma L2 kepada fungsi objektif model. Istilah penalti ini menghukum berat model dengan jumlah kuasa dua untuk mengelakkan berat berlebihan dan dengan itu mengurangkan masalah overfitting. Kaedah ini memperkenalkan istilah regularisasi ke dalam fungsi kehilangan dan melaraskan pekali regularisasi untuk mengimbangi keupayaan pemasangan dan keupayaan generalisasi model. Regularisasi Tikhonov mempunyai pelbagai aplikasi dalam aplikasi praktikal dan boleh meningkatkan prestasi dan kestabilan model dengan berkesan.
Sebelum regularisasi, fungsi objektif regresi linear boleh dinyatakan sebagai:
J(w)=frac{1}{2m}sum_{i=1}^{m}(h_w(x^{ (i)})-y^{(i)})^2
Dalam fungsi objektif ini, kita dapat melihat bahawa w ialah vektor berat model, h_w(x^{(i)}) ialah vektor berat model untuk Hasil ramalan sampel ke-i x^{(i)}, y^{(i)} ialah label sebenar, dan m ialah bilangan sampel. Untuk mengoptimumkan fungsi objektif ini, kaedah seperti penurunan kecerunan sering digunakan. Kaedah ini mengira kecerunan fungsi objektif dan mengemas kini vektor berat w, dengan itu secara beransur-ansur mengurangkan nilai fungsi objektif, menjadikan keputusan ramalan model lebih dekat dengan label sebenar. Dengan cara ini, kita boleh meningkatkan prestasi model dengan mengoptimumkan fungsi objektif.
Dan dalam regularisasi Tikhonov, fungsi objektif menjadi:
J(w)=frac{1}{2m}sum_{i=1}^{m}(h_w(x^ {(i)} )-y^{(i)})^2+frac{lambda}{2}||w||_2^2
di mana, lambda ialah parameter penyelarasan, yang digunakan untuk mengawal intensiti tempoh penalti. ||w||_2^2 mewakili norma L2 bagi vektor berat, iaitu jumlah kuasa dua semua pemberat. Istilah penalti ini mengehadkan nilai pemberat supaya ia tidak boleh terlalu besar, dengan itu menghalang model daripada dipasang berlebihan.
Dalam aplikasi praktikal, nilai lambda parameter regularisasi biasanya perlu ditentukan melalui pengesahan silang dan kaedah lain. Jika lambda terlalu kecil, kesan regularisasi akan menjadi lemah dan model masih terdedah kepada overfitting; jika lambda terlalu besar, tempoh penalti akan mengatasi fungsi objektif asal, mengakibatkan model tidak sesuai.
Pengaturan Tikhonov mempunyai beberapa ciri dan aplikasi lain. Contohnya, ia boleh mengendalikan korelasi antara ciri dengan lebih baik kerana ia membenarkan pemberat ciri yang berkaitan untuk membatalkan satu sama lain; ia juga boleh digunakan untuk mengendalikan data berdimensi tinggi kerana ia boleh mengurangkan bilangan ciri dengan menghukum ciri yang tidak penting.
Berikut ialah contoh regresi linear menggunakan regularisasi Tikhonov.
Andaikan terdapat set data yang mengandungi 2 ciri dan label. Kami menggunakan perpustakaan Scikit-learn Python untuk melakukan ini:
from sklearn.linear_model import Ridge from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.datasets import make_regression # 生成数据集 X, y = make_regression(n_samples=100, n_features=2, noise=0.5, random_state=42) # 数据归一化 scaler = StandardScaler() X = scaler.fit_transform(X) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 构建模型 ridge = Ridge(alpha=1.0) # alpha为正则化参数 # 模型训练 ridge.fit(X_train, y_train) # 模型评估 print("Train score:", ridge.score(X_train, y_train)) print("Test score:", ridge.score(X_test, y_test))
Dalam contoh ini, kami menggunakan fungsi make_regression perpustakaan Scikit-learn untuk menjana set data dengan 2 ciri dan label. Kami mula-mula menormalkan data dan kemudian menggunakan fungsi train_test_split untuk membahagikan set data kepada set latihan dan set ujian. Seterusnya, kami menggunakan fungsi Ridge untuk membina model regresi linear teratur Tikhonov, di mana parameter alfa ialah parameter regularisasi. Akhir sekali, kami menggunakan fungsi muat untuk melatih model, dan menggunakan fungsi skor untuk mengira markah R2 pada set latihan dan set ujian masing-masing.
Perlu diingatkan bahawa nilai alpha parameter regularization perlu ditentukan melalui pengesahan silang dan kaedah lain. Dalam contoh ini, kami menggunakan nilai lalai alpha=1.0. Jika alfa terlalu kecil, model mungkin tidak menunjukkan prestasi yang memuaskan jika alfa terlalu besar, model mungkin kurang dipasang.
Atas ialah kandungan terperinci Penyelarasan Tikhonov. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Regresi linear berganda ialah bentuk regresi linear yang paling biasa dan digunakan untuk menerangkan bagaimana pembolehubah tindak balas tunggal Y mempamerkan hubungan linear dengan pembolehubah peramal berbilang. Contoh aplikasi di mana regresi berganda boleh digunakan: Harga jualan rumah boleh dipengaruhi oleh faktor seperti lokasi, bilangan bilik tidur dan bilik mandi, tahun pembinaan, saiz lot dan banyak lagi. 2. Ketinggian anak bergantung kepada ketinggian ibu, ketinggian bapa, pemakanan dan faktor persekitaran. Parameter Model Regresi Linear Berbilang Pertimbangkan model regresi linear berbilang dengan k pembolehubah peramal tidak bersandar x1, x2..., xk dan pembolehubah bergerak balas y. Katakan kita mempunyai n pemerhatian untuk k+1 pembolehubah, dan n pembolehubah harus lebih besar daripada k. Matlamat asas regresi kuasa dua terkecil adalah untuk memuatkan hyperplane ke dalam ruang dimensi (k+1) untuk meminimumkan jumlah baki kuasa dua. pada model

Penjelasan terperinci tentang model regresi linear dalam Python Regresi linear ialah model statistik klasik dan algoritma pembelajaran mesin. Ia digunakan secara meluas dalam bidang ramalan dan pemodelan, seperti ramalan pasaran saham, ramalan cuaca, ramalan harga perumahan, dll. Sebagai bahasa pengaturcaraan yang cekap, Python menyediakan perpustakaan pembelajaran mesin yang kaya, termasuk model regresi linear. Artikel ini akan memperkenalkan model regresi linear dalam Python secara terperinci, termasuk prinsip model, senario aplikasi dan pelaksanaan kod. Prinsip regresi linear Model regresi linear adalah berdasarkan hubungan linear antara pembolehubah.

Regresi Tikhonov, juga dikenali sebagai regresi rabung atau regularisasi L2, ialah kaedah regularisasi yang digunakan untuk regresi linear. Ia mengawal kerumitan dan keupayaan generalisasi model dengan menambahkan istilah penalti norma L2 kepada fungsi objektif model. Istilah penalti ini menghukum berat model dengan jumlah kuasa dua untuk mengelakkan berat berlebihan dan dengan itu mengurangkan masalah overfitting. Kaedah ini memperkenalkan istilah regularisasi ke dalam fungsi kehilangan dan melaraskan pekali regularisasi untuk mengimbangi keupayaan pemasangan dan keupayaan generalisasi model. Regularisasi Tikhonov mempunyai pelbagai aplikasi dalam aplikasi praktikal dan boleh meningkatkan prestasi dan kestabilan model dengan berkesan. Sebelum regularisasi, fungsi objektif regresi linear boleh dinyatakan sebagai: J(w)=\frac{1}{2m}\sum_{i=1}^{m}(h_

1. Regresi Linear Regresi Linear mungkin merupakan algoritma pembelajaran mesin yang paling popular. Regresi linear adalah untuk mencari garis lurus dan menjadikan garis lurus ini sesuai dengan titik data dalam plot serakan sedekat mungkin. Ia cuba mewakili pembolehubah tidak bersandar (nilai x) dan keputusan berangka (nilai y) dengan memasangkan persamaan garis lurus kepada data ini. Baris ini kemudiannya boleh digunakan untuk meramalkan nilai masa hadapan! Teknik yang paling biasa digunakan untuk algoritma ini ialah kaedah kuasa dua terkecil. Kaedah ini mengira garisan yang paling sesuai yang meminimumkan jarak serenjang dari setiap titik data pada garisan. Jumlah jarak ialah jumlah kuasa dua jarak menegak (garis hijau) semua titik data. Ideanya adalah untuk menyesuaikan model dengan meminimumkan ralat atau jarak kuasa dua ini. Contohnya

Regresi logistik ialah model linear yang digunakan untuk masalah klasifikasi, terutamanya digunakan untuk meramalkan nilai kebarangkalian dalam masalah klasifikasi binari. Ia menukarkan nilai ramalan linear kepada nilai kebarangkalian dengan menggunakan fungsi sigmoid dan membuat keputusan pengelasan berdasarkan ambang. Dalam regresi logistik, nilai OR ialah penunjuk penting yang digunakan untuk mengukur kesan pembolehubah berbeza dalam model ke atas keputusan. Nilai OR mewakili perubahan berganda dalam kebarangkalian pembolehubah bersandar berlaku untuk perubahan unit dalam pembolehubah bebas. Dengan mengira nilai OR, kita boleh menentukan sumbangan pembolehubah tertentu kepada model. Kaedah pengiraan nilai OR adalah untuk mengambil pekali logaritma asli (ln) bagi fungsi eksponen (exp), iaitu, OR=exp(β), di mana β ialah pekali bagi pembolehubah bebas dalam regresi logistik. model. alat

Regresi polinomial ialah kaedah analisis regresi yang sesuai untuk perhubungan data tak linear. Tidak seperti model regresi linear ringkas yang hanya boleh memuatkan perhubungan garis lurus, model regresi polinomial boleh memuatkan perhubungan lengkung kompleks dengan lebih tepat. Ia memperkenalkan ciri polinomial dan menambah istilah pembolehubah peringkat tinggi kepada model untuk menyesuaikan diri dengan lebih baik kepada perubahan tak linear dalam data. Pendekatan ini meningkatkan fleksibiliti dan kesesuaian model, membolehkan ramalan dan tafsiran data yang lebih tepat. Bentuk asas model regresi polinomial ialah: y=β0+β1x+β2x^2+…+βn*x^n+ε Dalam model ini, y ialah pembolehubah bersandar yang ingin kita ramalkan, dan x ialah pembolehubah bebas . β0~βn ialah pekali model, yang menentukan tahap pengaruh pembolehubah bebas ke atas pembolehubah bersandar. ε mewakili istilah ralat model, yang ditentukan oleh ketidakupayaan untuk

Model Linear Umum (GLM) ialah kaedah pembelajaran statistik yang digunakan untuk menerangkan dan menganalisis hubungan antara pembolehubah bersandar dan pembolehubah tidak bersandar. Model regresi linear tradisional hanya boleh mengendalikan pembolehubah berangka berterusan, manakala GLM boleh diperluaskan untuk mengendalikan lebih banyak jenis pembolehubah, termasuk pembolehubah binari, multivariat, kiraan atau kategori. Idea teras GLM adalah untuk mengaitkan nilai jangkaan pembolehubah bersandar kepada gabungan linear pembolehubah bebas melalui fungsi pautan yang sesuai, sambil menggunakan taburan ralat yang sesuai untuk menerangkan kebolehubahan pembolehubah bersandar. Dengan cara ini, GLM boleh menyesuaikan diri dengan pelbagai jenis data, meningkatkan lagi fleksibiliti dan kuasa ramalan model. Dengan memilih fungsi pautan dan pengagihan ralat yang sesuai, GLM boleh disesuaikan dengannya

Model linear umum dan model linear am adalah kaedah analisis regresi yang biasa digunakan dalam statistik. Walaupun kedua-dua istilah adalah serupa, ia berbeza dalam beberapa cara. Model linear umum membenarkan pembolehubah bersandar mengikuti taburan bukan normal dengan menghubungkan pembolehubah peramal kepada pembolehubah bersandar melalui fungsi pautan. Model linear am mengandaikan bahawa pembolehubah bersandar mematuhi taburan normal dan menggunakan hubungan linear untuk pemodelan. Oleh itu, model linear umum adalah lebih fleksibel dan mempunyai julat kebolehgunaan yang lebih luas. 1. Definisi dan skop Model linear am ialah kaedah analisis regresi yang sesuai untuk situasi di mana terdapat hubungan linear antara pembolehubah bersandar dan pembolehubah bebas. Ia mengandaikan bahawa pembolehubah bersandar mengikuti taburan normal. Model linear umum ialah kaedah analisis regresi yang sesuai untuk pembolehubah bersandar yang tidak semestinya mengikut taburan normal. Ia boleh menerangkan pembolehubah bersandar dengan memperkenalkan fungsi pautan dan keluarga pengedaran
