Regresi
Ordinary Least Squares (OLS) ialah strategi pengoptimuman yang bertujuan untuk mencari garis lurus yang paling hampir dengan titik data dalam model regresi linear. OLS secara meluas dianggap sebagai kaedah pengoptimuman yang paling berkesan dalam model regresi linear kerana keupayaannya untuk memberikan anggaran alfa dan beta yang tidak berat sebelah. Dengan meminimumkan jumlah kuasa dua baki, OLS boleh mencari nilai parameter optimum supaya garis regresi mempunyai tahap pemadanan tertinggi kepada titik data. Kaedah ini bukan sahaja membantu kita memahami hubungan antara pembolehubah bebas dan pembolehubah bersandar, tetapi juga membolehkan analisis ramalan dan inferens. Secara keseluruhannya, regresi OLS ialah alat yang mudah tetapi berkuasa yang membantu kami menerangkan dan meramalkan
Regresi linear ialah algoritma yang digunakan untuk tugasan pembelajaran mesin yang diselia. Ia digunakan terutamanya untuk masalah regresi, bukan masalah klasifikasi. Masalah regresi melibatkan meramalkan nilai berterusan, manakala masalah klasifikasi meramalkan kategori. Oleh itu, matlamat algoritma regresi linear adalah untuk meramal pembolehubah sasaran berterusan dengan membina model linear. Tidak seperti klasifikasi, pembolehubah sasaran bukanlah nilai kategori, tetapi nilai berangka atau berterusan. Melalui algoritma regresi linear, kita boleh meramalkan nombor berterusan berdasarkan hubungan linear pembolehubah input untuk memodelkan dan meramalkan masalah.
Tugas regresi boleh dibahagikan kepada dua kategori: satu ialah tugasan yang hanya menggunakan satu ciri untuk meramalkan sasaran, dan satu lagi ialah tugasan yang menggunakan berbilang ciri untuk meramalkan sasaran.
Matlamat regresi linear mudah adalah untuk meminimumkan istilah ralat dengan melaraskan parameter. Secara khusus, model ini menggunakan pengecilan ralat kuasa dua sebagai objektif pengoptimuman. Kami tidak mahu ralat positif dan ralat negatif membatalkan satu sama lain, kerana kedua-duanya menghukum model kami. Oleh itu, proses ini dipanggil ralat kuasa dua terkecil biasa (OLS).
Ringkasnya, OLS ialah strategi pengoptimuman yang digunakan untuk menyesuaikan garis lurus titik data. Walaupun OLS bukan satu-satunya strategi pengoptimuman, ia adalah salah satu yang paling popular kerana ia menyediakan penganggar yang tidak berat sebelah bagi nilai sebenar alfa dan beta.
Mengikut teorem Gauss-Markov dan andaian model regresi linear, penganggar OLS dianggap berkesan di bawah syarat kelinearan parameter, pensampelan rawak pemerhatian, min bersyarat sifar, tiada multikolineariti dan homoskedastisitas ralat anggaran linear tidak berat sebelah terbaik.
Atas ialah kandungan terperinci Definisi dan aplikasi regresi OLS. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!