Pembelajaran kendiri (SSL) ialah satu bentuk pembelajaran terselia yang tidak memerlukan input manual label data. Ia memperoleh keputusan melalui model yang menganalisis data, melabel dan mengklasifikasikan maklumat secara bebas tanpa campur tangan manusia. Kaedah ini boleh mengurangkan beban kerja anotasi manual, meningkatkan kecekapan latihan dan berprestasi baik pada set data berskala besar. SSL ialah kaedah pembelajaran yang menjanjikan yang boleh diaplikasikan dalam pelbagai bidang seperti penglihatan komputer dan pemprosesan bahasa semula jadi.
Pembelajaran penyeliaan kendiri ialah kaedah pembelajaran tanpa penyeliaan yang menggunakan data tidak berlabel untuk menjana isyarat penyeliaan. Ringkasnya, ia melatih model dengan menjana label data berkeyakinan tinggi dan kemudian menggunakan label ini dalam lelaran seterusnya. Dalam setiap lelaran, kebenaran asas berdasarkan label data berubah. Pendekatan ini boleh menggunakan data tidak berlabel secara berkesan untuk meningkatkan prestasi model.
Pembelajaran diselia memerlukan penggunaan data berlabel manual berkualiti tinggi untuk melatih model dan melaraskan berat model.
Pembelajaran penyeliaan sendiri menggunakan data dan label yang dijana secara automatik untuk melatih model, tanpa label sebenar pada mulanya.
Pembelajaran tanpa pengawasan berfungsi pada set data yang tiada label tersedia, paradigma pembelajaran ini cuba memahami data yang diberikan tanpa menggunakan label pada mana-mana peringkat latihannya.
Pembelajaran penyeliaan kendiri ialah subset pembelajaran tanpa penyeliaan, kedua-duanya hanya menyediakan data tidak berstruktur. Tetapi pembelajaran tanpa pengawasan berfungsi pada pengelompokan, pengelompokan dan pengurangan dimensi, manakala pembelajaran penyeliaan sendiri melaksanakan tugas seperti pengelasan, pembahagian dan regresi seperti model diselia yang lain.
Model berasaskan tenaga (EBM)
Model berasaskan tenaga cuba mengira keserasian antara dua input yang diberikan menggunakan fungsi matematik. Apabila diberi dua input, jika EBM menghasilkan output tenaga yang rendah, ini bermakna input mempunyai keserasian yang tinggi; output tenaga yang tinggi bermakna ketidakserasian yang tinggi;
Joint Embedding Architecture
Joint Embedding Architecture ialah rangkaian dua cawangan di mana struktur setiap cawangan adalah sama. Setiap cawangan diberi dua input untuk mengira vektor benam individu mereka. Terdapat modul di kepala rangkaian yang mengambil sebagai input dua vektor benam dan mengira jaraknya dalam ruang terpendam.
Jadi apabila dua input adalah serupa antara satu sama lain, jarak yang dikira hendaklah kecil. Parameter rangkaian boleh ditala dengan mudah untuk memastikan bahawa input dalam ruang terpendam adalah berdekatan antara satu sama lain.
Pembelajaran Kontrastif
Dalam SSL pembelajaran kontrastif, model ini dilatih dengan membandingkan input yang dipanggil "sauh" seperti teks, imej, klip video dengan contoh positif dan negatif. Sampel positif merujuk kepada sampel yang tergolong dalam taburan yang sama dengan titik anchor, manakala sampel negatif merujuk kepada sampel yang tergolong dalam taburan yang berbeza daripada titik anchor.
Pembelajaran kendiri bukan kontrastif (NC-SSL)
Pembelajaran kendiri bukan kontrastif (NC-SSL) ialah paradigma pembelajaran di mana hanya pasangan sampel positif digunakan untuk melatih model, tidak seperti menggunakan sampel positif serentak Pembelajaran kontrastif berbeza antara pasangan dan pasangan sampel negatif. Walau bagaimanapun, NC-SSL telah terbukti dapat mempelajari perwakilan bukan remeh dengan hanya pasangan positif menggunakan peramal tambahan dan menghentikan operasi kecerunan.
Atas ialah kandungan terperinci Hubungan dan perbezaan antara pembelajaran penyeliaan kendiri, pembelajaran diselia dan pembelajaran tidak diselia (pengkelasan rangka kerja pembelajaran penyeliaan kendiri). Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!