Pembelajaran diselia ialah sejenis pembelajaran mesin yang menggunakan contoh berlabel oleh algoritma latihan untuk meramalkan contoh yang tidak kelihatan. Matlamatnya adalah untuk mempelajari fungsi yang memetakan data input ke label output.
Dalam pembelajaran diselia, algoritma menerima set data latihan yang mengandungi satu siri contoh input dan label keluaran betul yang sepadan. Dengan menggunakan set data ini, algoritma dapat mempelajari fungsi yang meramalkan label output untuk contoh baharu. Untuk menilai prestasi algoritma, kami biasanya menggunakan set data ujian bebas untuk mengesahkan ketepatan fungsi yang dipelajari. Set data ujian ini digunakan untuk menguji prestasi algoritma pada data yang tidak kelihatan.
Regression linear ialah kaedah yang digunakan untuk meramal nilai berterusan, yang menganggap bahawa hubungan antara ciri dan sasaran adalah linear. Matlamatnya adalah untuk mencari garisan paling sesuai yang meminimumkan jumlah ralat kuasa dua antara nilai ramalan dan nilai sebenar. Selain itu, regresi linear boleh digunakan dengan regresi polinomial untuk menyesuaikan lengkung polinomial kepada data.
Regresi logistik ialah algoritma yang digunakan untuk pengelasan binari. Ia adalah algoritma regresi kerana ia meramalkan nilai berterusan, tetapi ia sering digunakan dalam tugas klasifikasi kerana ia menggunakan fungsi logistik untuk menukar nilai ramalan kepada kebarangkalian. Regresi logistik dipanggil regresi "logistik" kerana ia menggunakan fungsi logistik (juga dipanggil fungsi sigmoid) untuk meramalkan kebarangkalian bahawa sampel tergolong dalam kelas tertentu.
Ia bertujuan untuk menggunakan algoritma pengoptimuman (seperti keturunan kecerunan) untuk mempelajari set pemberat yang boleh digunakan untuk meramalkan kebarangkalian bahawa sampel tergolong dalam kelas tertentu. Ramalan dibuat dengan mengambang kebarangkalian yang diramalkan.
Algoritma mesin vektor sokongan ialah pengelas linear yang cuba mencari hyperplane yang memaksimumkan pemisahan dua kelas dalam ruang berdimensi tinggi dan digunakan untuk pengelasan dan regresi.
SVM berfungsi dengan mempelajari set pemberat yang mentakrifkan hyperplane. Hyperplane dipilih supaya ia memaksimumkan pemisahan kelas dan mempunyai jarak maksimum (dipanggil margin) ke contoh terdekat setiap kelas. Setelah hyperplane ditemui, SVM boleh digunakan untuk mengklasifikasikan contoh baharu dengan menayangkannya ke dalam ruang ciri dan meramalkan kelas berdasarkan sisi mana hyperplane ia jatuh. Fungsi kernel boleh menjadi linear atau bukan linear, dan ia mengubah data menjadi ruang dimensi yang lebih tinggi, membolehkan mesin vektor sokongan mencari sempadan linear dalam ruang yang diubah.
SVM amat berguna untuk tugas yang datanya berdimensi tinggi dan boleh dipisahkan secara linear, kerana mereka boleh mempelajari sempadan keputusan bukan linear dengan memetakan data input ke dalam ruang dimensi tinggi (yang mungkin boleh dipisahkan secara linear) dan kemudian mempelajari bahawa ruang sempadan Keputusan dalam (juga dikenali sebagai teknik kernel).
Algoritma pepohon keputusan ialah pengelas bukan linear yang membuat ramalan berdasarkan struktur pokok yang digunakan untuk pengelasan dan regresi. Ia berfungsi dengan membahagikan ruang input secara rekursif kepada kawasan berdasarkan nilai ciri.
Pokok keputusan berfungsi dengan membahagikan ruang input secara rekursif kepada berbilang wilayah berdasarkan nilai ciri. Pada setiap langkah dalam pepohon, algoritma memilih ciri yang paling baik membahagikan data berdasarkan kriteria pembahagian seperti indeks Gini atau perolehan maklumat. Proses ini berterusan sehingga kriteria berhenti dicapai, seperti kedalaman maksimum pokok atau bilangan minimum contoh dalam nod daun.
Untuk membuat ramalan tentang contoh baharu, algoritma mengesan dahan pokok berdasarkan nilai ciri sehingga ia mencapai nod daun. Ramalan kemudian dibuat berdasarkan kelas majoriti contoh dalam nod daun (untuk tugas klasifikasi) atau min atau median contoh dalam nod daun (untuk tugas regresi).
Pokok keputusan ialah model yang ringkas dan boleh ditafsir serta mudah untuk dilaksanakan. Mereka juga pantas untuk melatih dan meramalkan, serta boleh mengendalikan pelbagai jenis data. Walau bagaimanapun, pokok keputusan boleh terdedah kepada overfitting, terutamanya apabila pokok itu dibiarkan tumbuh sangat dalam.
K Nearest Neighbor Algoritma ialah kaedah bukan parametrik yang meramalkan kelas majoriti K contoh terdekat yang diberi contoh ujian dan digunakan untuk pengelasan dan regresi.
KNN berfungsi dengan menyimpan semua sampel latihan dan kemudian membuat ramalan berdasarkan sampel K dalam ruang ciri yang paling hampir dengan sampel ujian. Nilai K ialah hiperparameter yang dipilih oleh pengamal. Untuk pengelasan, ramalan dibuat berdasarkan kelas majoriti K contoh terkini. Untuk regresi, ramalan dibuat berdasarkan min atau median pembolehubah sasaran berbanding K contoh terkini.
KNN boleh menjadi mahal dari segi pengiraan kerana algoritma perlu mengira jarak antara contoh ujian dan semua contoh latihan. Ia juga mungkin sensitif kepada pilihan K dan metrik jarak. Ia juga berfungsi sebagai model garis dasar untuk perbandingan dengan algoritma yang lebih maju.
Algoritma Naive Bayes ialah pengelas kebarangkalian yang membuat ramalan berdasarkan kebarangkalian kejadian tertentu berlaku, memandangkan kehadiran ciri tertentu. Naive Bayes membuat andaian "naif" bahawa semua ciri dalam data adalah bebas antara satu sama lain diberikan label kelas. Andaian ini selalunya tidak realistik, tetapi algoritma berfungsi dengan baik dalam amalan walaupun andaian ini.
Terdapat banyak variasi algoritma Naive Bayes. Gaussian Naive Bayes digunakan untuk ciri berterusan dan mengandaikan bahawa ciri mengikut taburan normal. Polinomial Naive Bayes digunakan untuk mengira data dan mengandaikan bahawa ciri mengikuti taburan polinomial. Bernoulli Naive Bayes digunakan untuk ciri binari dan menganggap bahawa ciri tersebut mengikuti taburan Bernoulli. Naive Bayes ialah algoritma ringkas dan cekap yang mudah dilaksanakan dan pantas dalam latihan dan ramalan.
Rangkaian saraf ialah algoritma pembelajaran mesin yang diilhamkan oleh struktur dan fungsi otak. Mereka terdiri daripada neuron buatan yang disambungkan bersama dalam lapisan, dipanggil nod atau unit. Rangkaian saraf boleh belajar untuk melaksanakan pelbagai tugas, termasuk klasifikasi, regresi dan penjanaan jujukan. Ia amat sesuai untuk tugasan yang memerlukan pembelajaran hubungan yang kompleks antara data input dan output.
Terdapat pelbagai jenis rangkaian saraf, termasuk rangkaian neural suapan, rangkaian saraf konvolusi dan rangkaian saraf berulang. Rangkaian saraf suapan adalah jenis rangkaian saraf yang paling asas, yang terdiri daripada lapisan input, satu atau lebih lapisan tersembunyi dan lapisan keluaran. Rangkaian saraf konvolusi digunakan untuk tugas seperti pengelasan imej dan pengesanan objek, dan ia direka untuk memproses data dengan struktur seperti grid, seperti imej. Rangkaian saraf berulang digunakan untuk tugas seperti terjemahan bahasa dan pengecaman pertuturan, dan ia direka bentuk untuk memproses data berjujukan, seperti siri masa atau bahasa semula jadi.
Rangkaian saraf dilatih menggunakan algoritma pengoptimuman seperti penurunan kecerunan stokastik untuk meminimumkan fungsi kehilangan yang mengukur perbezaan antara output yang diramalkan dan sebenar. Berat sambungan antara nod dilaraskan semasa latihan untuk meminimumkan kehilangan.
Algoritma hutan rawak ialah kaedah ensemble yang menggabungkan ramalan berbilang pokok keputusan untuk membuat ramalan akhir. Hutan rawak dicipta dengan melatih banyak pokok keputusan pada subset data latihan yang berbeza dan kemudian membuat purata ramalan bagi setiap pokok. Proses ini dipanggil bootstrap kerana pokok dilatih pada sampel bootstrap data. Proses bootstrap memperkenalkan rawak ke dalam proses latihan pokok, yang membantu mengurangkan overfitting.
Hutan rawak digunakan secara meluas untuk tugasan seperti pengelasan, regresi dan pemilihan ciri. Mereka terkenal dengan keupayaan mereka untuk mengendalikan set data yang besar dengan banyak ciri dan untuk prestasi baik mereka dalam pelbagai tugas. Ia juga tahan terhadap pemasangan berlebihan, yang menjadikannya pilihan yang baik untuk banyak aplikasi pembelajaran mesin.
Boosting ialah teknik pembelajaran mesin yang melibatkan latihan siri model lemah dan menggabungkan ramalan mereka untuk membuat ramalan akhir. Dalam meningkatkan, model lemah dilatih secara berurutan, dan setiap model dilatih untuk membetulkan ralat model sebelumnya. Ramalan akhir dibuat dengan menggabungkan ramalan model lemah individu menggunakan undi majoriti wajaran. Berat model individu biasanya dipilih berdasarkan ketepatan model. Boosting biasanya digunakan untuk tugasan seperti klasifikasi dan regresi. Ia terkenal dengan keupayaannya untuk mencapai ketepatan tinggi pada pelbagai tugas dan keupayaannya untuk mengendalikan set data yang besar dengan banyak ciri.
Atas ialah kandungan terperinci Algoritma pembelajaran seliaan biasa. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!