Penterjemah |. Bugatti
Penilai |. Lebih banyak data yang anda berikan kepada model pembelajaran mendalam, lebih baik prestasinya. Malangnya, dalam kebanyakan situasi praktikal, ini tidak mungkin. Anda mungkin tidak mempunyai data yang mencukupi, atau data mungkin terlalu mahal untuk dikumpulkan.
Artikel ini akan membincangkan empat cara untuk menambah baik model pembelajaran mendalam tanpa menggunakan lebih banyak data.
Mengapakah pembelajaran mendalam memerlukan begitu banyak data?
Setiap lapisan terdiri daripada satu siri neuron, yang seterusnya disambungkan kepada setiap neuron dalam lapisan sebelumnya. Semua lapisan dan neuron ini bermakna terdapat banyak parameter untuk dioptimumkan. Jadi perkara yang baik ialah model pembelajaran mendalam mempunyai keupayaan yang kuat. Tetapi kelemahan bermakna mereka terdedah kepada overfitting. Pemasangan lampau bermakna model menangkap terlalu banyak isyarat gangguan dalam data latihan dan tidak boleh digunakan pada data baharu.
Dengan data yang mencukupi, model pembelajaran mendalam boleh belajar untuk mengesan perhubungan yang sangat kompleks. Walau bagaimanapun, jika anda tidak mempunyai data yang mencukupi, model pembelajaran mendalam tidak akan dapat memahami perhubungan yang kompleks ini. Kita mesti mempunyai data yang mencukupi supaya model pembelajaran mendalam boleh belajar.
Tetapi jika pengumpulan lebih banyak data tidak mungkin, kami mempunyai beberapa teknik untuk mengatasinya.
1. Memindahkan pembelajaran membantu dalam melatih model pembelajaran mendalam dengan set data yang kecil.
Sebagai contoh, anda boleh mengambil model yang dilatih pada set data besar imej anjing dan menggunakannya sebagai titik permulaan untuk melatih model mengenal pasti baka anjing.
Semoga ciri yang dipelajari oleh model pertama dapat digunakan semula, menjimatkan masa dan sumber. Tiada peraturan praktikal tentang betapa berbezanya kedua-dua aplikasi itu. Walau bagaimanapun, pembelajaran pemindahan masih boleh digunakan walaupun set data asal dan set data baharu adalah sangat berbeza.
Sebagai contoh, anda boleh mengambil model yang dilatih tentang imej kucing dan menggunakannya sebagai titik permulaan untuk melatih model mengenali jenis unta. Mudah-mudahan, memikirkan fungsi empat kaki dalam model pertama mungkin membantu mengenal pasti unta.
Jika anda ingin mengetahui lebih lanjut tentang pembelajaran pemindahan, anda boleh merujuk kepada
"Pembelajaran Pemindahan untuk Pemprosesan Bahasa Semulajadi" . Jika anda seorang pengaturcara Python, anda juga mungkin mendapati "Pembelajaran Pemindahan Praktikal dengan Python" membantu. 2. Cuba penambahan data
Sebagai contoh, jika anda mempunyai set data imej anjing, anda boleh menggunakan penambahan data untuk menjana imej anjing baharu. Anda boleh melakukan ini dengan memangkas imej secara rawak, membalikkannya secara mendatar, menambah hingar dan beberapa teknik lain.
Jika anda mempunyai set data yang kecil, penambahan data boleh menjadi sangat bermanfaat. Dengan menjana data baharu, anda boleh meningkatkan saiz set data anda secara buatan, memberikan model pembelajaran mendalam anda lebih banyak data untuk digunakan.
Ini
edaran tentang pembelajaran mendalam akan membantu anda memperoleh pemahaman yang lebih mendalam tentang penambahan data. 3. Gunakan pengekod automatik
Pengekod automatik berguna apabila anda mempunyai set data yang kecil kerana mereka boleh belajar untuk memampatkan data anda ke dalam ruang berdimensi rendah.
Terdapat pelbagai jenis pengekod automatik. Pengekod auto variasi (VAE) ialah jenis pengekod auto yang popular. VAE ialah model generatif, yang bermaksud mereka boleh menjana data baharu. Ini banyak membantu kerana anda boleh menggunakan VAE untuk menjana titik data baharu yang serupa dengan data latihan. Ini ialah cara yang bagus untuk meningkatkan saiz set data anda tanpa benar-benar mengumpul lebih banyak data.
Tajuk asal:Cara Meningkatkan Model Pembelajaran Mendalam Dengan Set Data Kecil
Atas ialah kandungan terperinci Bagaimana untuk menambah baik model pembelajaran mendalam menggunakan set data kecil?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!