Laksanakan kaedah regresi linear mudah dalam R dan terangkan konsepnya
Regression linear mudah ialah kaedah statistik yang digunakan untuk mengkaji hubungan antara dua pembolehubah selanjar. Antaranya, satu pembolehubah dipanggil pembolehubah bebas (x) dan pembolehubah lain dipanggil pembolehubah bersandar (y). Kami menganggap bahawa terdapat hubungan linear antara kedua-dua pembolehubah ini dan cuba mencari fungsi linear yang meramalkan nilai tindak balas (y) pembolehubah bersandar dengan tepat berdasarkan ciri-ciri pembolehubah bebas. Dengan memasang garis lurus, kita boleh mendapatkan keputusan yang diramalkan. Model ramalan ini boleh digunakan untuk memahami dan meramalkan bagaimana pembolehubah bersandar berubah apabila pembolehubah bebas berubah.
Untuk memahami konsep ini, kita boleh menggunakan set data gaji, yang mengandungi nilai pembolehubah bersandar (gaji) sepadan dengan setiap pembolehubah bebas (tahun pengalaman).
Set Data Gaji
Gaji dan Pengalaman Tahunan
1.1 39343.00
1.3 46205.00
1.5 37731.00
2.5.00 39891.0 02.9 56642.003.0 60150.003.2 54445.003.2 64445.007. 57189.00
Untuk tujuan umum, kami mentakrifkan:
x sebagai vektor ciri, iaitu x=[x_1,x_2,....,x_n],
y sebagai vektor tindak balas, iaitu y=[y_1,y_2, .. ..,y_n]
untuk n pemerhatian (dalam contoh di atas, n=10).
Plot serakan set data yang diberikan
Sekarang, kita perlu mencari garisan yang sesuai dengan plot serakan di atas yang melaluinya kita boleh meramalkan tindak balas untuk sebarang nilai y atau untuk sebarang nilai x.
Garis yang paling sesuai dipanggil garis regresi.
Kod R berikut digunakan untuk melaksanakan regresi linear mudah
dataset=read.csv('salary.csv') install.packages('caTools') library(caTools) split=sample.split(dataset$Salary,SplitRatio=0.7) trainingset=subset(dataset,split==TRUE) testset=subset(dataset,split==FALSE) lm.r=lm(formula=Salary~YearsExperience, data=trainingset) coef(lm.r) ypred=predict(lm.r,newdata=testset) install.packages("ggplot2") library(ggplot2) ggplot()+geom_point(aes(x=trainingset$YearsExperience, y=trainingset$Salary),colour='red')+ geom_line(aes(x=trainingset$YearsExperience, y=predict(lm.r,newdata=trainingset)),colour='blue')+ ggtitle('Salary vs Experience(Training set)')+ xlab('Years of experience')+ ylab('Salary') ggplot()+ geom_point(aes(x=testset$YearsExperience,y=testset$Salary), colour='red')+ geom_line(aes(x=trainingset$YearsExperience, y=predict(lm.r,newdata=trainingset)), colour='blue')+ ggtitle('Salary vs Experience(Test set)')+ xlab('Years of experience')+ ylab('Salary')
Visualkan keputusan set latihan
Atas ialah kandungan terperinci Laksanakan kaedah regresi linear mudah dalam R dan terangkan konsepnya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Regresi linear berganda ialah bentuk regresi linear yang paling biasa dan digunakan untuk menerangkan bagaimana pembolehubah tindak balas tunggal Y mempamerkan hubungan linear dengan pembolehubah peramal berbilang. Contoh aplikasi di mana regresi berganda boleh digunakan: Harga jualan rumah boleh dipengaruhi oleh faktor seperti lokasi, bilangan bilik tidur dan bilik mandi, tahun pembinaan, saiz lot dan banyak lagi. 2. Ketinggian anak bergantung kepada ketinggian ibu, ketinggian bapa, pemakanan dan faktor persekitaran. Parameter Model Regresi Linear Berbilang Pertimbangkan model regresi linear berbilang dengan k pembolehubah peramal tidak bersandar x1, x2..., xk dan pembolehubah bergerak balas y. Katakan kita mempunyai n pemerhatian untuk k+1 pembolehubah, dan n pembolehubah harus lebih besar daripada k. Matlamat asas regresi kuasa dua terkecil adalah untuk memuatkan hyperplane ke dalam ruang dimensi (k+1) untuk meminimumkan jumlah baki kuasa dua. pada model

Penjelasan terperinci tentang model regresi linear dalam Python Regresi linear ialah model statistik klasik dan algoritma pembelajaran mesin. Ia digunakan secara meluas dalam bidang ramalan dan pemodelan, seperti ramalan pasaran saham, ramalan cuaca, ramalan harga perumahan, dll. Sebagai bahasa pengaturcaraan yang cekap, Python menyediakan perpustakaan pembelajaran mesin yang kaya, termasuk model regresi linear. Artikel ini akan memperkenalkan model regresi linear dalam Python secara terperinci, termasuk prinsip model, senario aplikasi dan pelaksanaan kod. Prinsip regresi linear Model regresi linear adalah berdasarkan hubungan linear antara pembolehubah.

Regresi Tikhonov, juga dikenali sebagai regresi rabung atau regularisasi L2, ialah kaedah regularisasi yang digunakan untuk regresi linear. Ia mengawal kerumitan dan keupayaan generalisasi model dengan menambahkan istilah penalti norma L2 kepada fungsi objektif model. Istilah penalti ini menghukum berat model dengan jumlah kuasa dua untuk mengelakkan berat berlebihan dan dengan itu mengurangkan masalah overfitting. Kaedah ini memperkenalkan istilah regularisasi ke dalam fungsi kehilangan dan melaraskan pekali regularisasi untuk mengimbangi keupayaan pemasangan dan keupayaan generalisasi model. Regularisasi Tikhonov mempunyai pelbagai aplikasi dalam aplikasi praktikal dan boleh meningkatkan prestasi dan kestabilan model dengan berkesan. Sebelum regularisasi, fungsi objektif regresi linear boleh dinyatakan sebagai: J(w)=\frac{1}{2m}\sum_{i=1}^{m}(h_

1. Regresi Linear Regresi Linear mungkin merupakan algoritma pembelajaran mesin yang paling popular. Regresi linear adalah untuk mencari garis lurus dan menjadikan garis lurus ini sesuai dengan titik data dalam plot serakan sedekat mungkin. Ia cuba mewakili pembolehubah tidak bersandar (nilai x) dan keputusan berangka (nilai y) dengan memasangkan persamaan garis lurus kepada data ini. Baris ini kemudiannya boleh digunakan untuk meramalkan nilai masa hadapan! Teknik yang paling biasa digunakan untuk algoritma ini ialah kaedah kuasa dua terkecil. Kaedah ini mengira garisan yang paling sesuai yang meminimumkan jarak serenjang dari setiap titik data pada garisan. Jumlah jarak ialah jumlah kuasa dua jarak menegak (garis hijau) semua titik data. Ideanya adalah untuk menyesuaikan model dengan meminimumkan ralat atau jarak kuasa dua ini. Contohnya

Regresi logistik ialah model linear yang digunakan untuk masalah klasifikasi, terutamanya digunakan untuk meramalkan nilai kebarangkalian dalam masalah klasifikasi binari. Ia menukarkan nilai ramalan linear kepada nilai kebarangkalian dengan menggunakan fungsi sigmoid dan membuat keputusan pengelasan berdasarkan ambang. Dalam regresi logistik, nilai OR ialah penunjuk penting yang digunakan untuk mengukur kesan pembolehubah berbeza dalam model ke atas keputusan. Nilai OR mewakili perubahan berganda dalam kebarangkalian pembolehubah bersandar berlaku untuk perubahan unit dalam pembolehubah bebas. Dengan mengira nilai OR, kita boleh menentukan sumbangan pembolehubah tertentu kepada model. Kaedah pengiraan nilai OR adalah untuk mengambil pekali logaritma asli (ln) bagi fungsi eksponen (exp), iaitu, OR=exp(β), di mana β ialah pekali bagi pembolehubah bebas dalam regresi logistik. model. alat

Regresi polinomial ialah kaedah analisis regresi yang sesuai untuk perhubungan data tak linear. Tidak seperti model regresi linear ringkas yang hanya boleh memuatkan perhubungan garis lurus, model regresi polinomial boleh memuatkan perhubungan lengkung kompleks dengan lebih tepat. Ia memperkenalkan ciri polinomial dan menambah istilah pembolehubah peringkat tinggi kepada model untuk menyesuaikan diri dengan lebih baik kepada perubahan tak linear dalam data. Pendekatan ini meningkatkan fleksibiliti dan kesesuaian model, membolehkan ramalan dan tafsiran data yang lebih tepat. Bentuk asas model regresi polinomial ialah: y=β0+β1x+β2x^2+…+βn*x^n+ε Dalam model ini, y ialah pembolehubah bersandar yang ingin kita ramalkan, dan x ialah pembolehubah bebas . β0~βn ialah pekali model, yang menentukan tahap pengaruh pembolehubah bebas ke atas pembolehubah bersandar. ε mewakili istilah ralat model, yang ditentukan oleh ketidakupayaan untuk

Model linear umum dan model linear am adalah kaedah analisis regresi yang biasa digunakan dalam statistik. Walaupun kedua-dua istilah adalah serupa, ia berbeza dalam beberapa cara. Model linear umum membenarkan pembolehubah bersandar mengikuti taburan bukan normal dengan menghubungkan pembolehubah peramal kepada pembolehubah bersandar melalui fungsi pautan. Model linear am mengandaikan bahawa pembolehubah bersandar mematuhi taburan normal dan menggunakan hubungan linear untuk pemodelan. Oleh itu, model linear umum adalah lebih fleksibel dan mempunyai julat kebolehgunaan yang lebih luas. 1. Definisi dan skop Model linear am ialah kaedah analisis regresi yang sesuai untuk situasi di mana terdapat hubungan linear antara pembolehubah bersandar dan pembolehubah bebas. Ia mengandaikan bahawa pembolehubah bersandar mengikuti taburan normal. Model linear umum ialah kaedah analisis regresi yang sesuai untuk pembolehubah bersandar yang tidak semestinya mengikut taburan normal. Ia boleh menerangkan pembolehubah bersandar dengan memperkenalkan fungsi pautan dan keluarga pengedaran

Model Linear Umum (GLM) ialah kaedah pembelajaran statistik yang digunakan untuk menerangkan dan menganalisis hubungan antara pembolehubah bersandar dan pembolehubah tidak bersandar. Model regresi linear tradisional hanya boleh mengendalikan pembolehubah berangka berterusan, manakala GLM boleh diperluaskan untuk mengendalikan lebih banyak jenis pembolehubah, termasuk pembolehubah binari, multivariat, kiraan atau kategori. Idea teras GLM adalah untuk mengaitkan nilai jangkaan pembolehubah bersandar kepada gabungan linear pembolehubah bebas melalui fungsi pautan yang sesuai, sambil menggunakan taburan ralat yang sesuai untuk menerangkan kebolehubahan pembolehubah bersandar. Dengan cara ini, GLM boleh menyesuaikan diri dengan pelbagai jenis data, meningkatkan lagi fleksibiliti dan kuasa ramalan model. Dengan memilih fungsi pautan dan pengagihan ralat yang sesuai, GLM boleh disesuaikan dengannya
