


Empat teknik pengesahan silang yang anda mesti pelajari dalam pembelajaran mesin
Pengenalan
Pertimbangkan untuk mencipta model pada set data, tetapi ia gagal pada data yang tidak kelihatan.
Kami tidak boleh hanya memuatkan model pada data latihan kami dan menunggu ia berfungsi dengan sempurna pada data sebenar yang tidak kelihatan.
Ini ialah contoh overfitting, di mana model kami telah mengekstrak semua corak dan hingar dalam data latihan. Untuk mengelakkan perkara ini daripada berlaku, kami memerlukan satu cara untuk memastikan model kami telah menangkap sebahagian besar corak dan tidak mengambil setiap bit hingar dalam data (pincang rendah dan varians rendah). Salah satu daripada banyak teknik untuk menangani masalah ini ialah pengesahan silang.
Memahami pengesahan silang
Andaikan dalam set data tertentu, kami mempunyai 1000 rekod dan kami train_test_split() dilaksanakan padanya. Dengan mengandaikan kami mempunyai 70% data latihan dan 30% data ujian random_state = 0, parameter ini menghasilkan ketepatan 85%. Sekarang, jika kita menetapkan random_state = 50 katakan ketepatannya meningkat kepada 87%.
Ini bermakna jika kita terus memilih nilai ketepatan untuk keadaan_rawak yang berbeza, turun naik akan berlaku. Untuk mengelakkan ini, teknik yang dipanggil pengesahan silang akan dimainkan.
Jenis pengesahan silang
Pengesahan silang tinggalkan satu (LOOCV)
Dalam LOOCV, kami pilih 1 titik data sebagai ujian, dan semua data yang tinggal akan menjadi data latihan dari lelaran pertama. Dalam lelaran seterusnya, kami akan memilih titik data seterusnya sebagai ujian dan selebihnya sebagai data latihan. Kami akan mengulangi ini untuk keseluruhan set data supaya titik data terakhir dipilih sebagai ujian dalam lelaran akhir.
Lazimnya, untuk mengira pengesahan silang R² untuk prosedur pengesahan silang berulang, anda mengira skor R² untuk setiap lelaran dan mengambil puratanya.
Walaupun ia membawa kepada anggaran prestasi model yang boleh dipercayai dan tidak berat sebelah, ia adalah mahal dari segi pengiraan untuk dilakukan.
2. Pengesahan silang K-lipatan
dalam Dalam CV lipatan K, kami membahagikan set data kepada subset k (dipanggil lipatan), kemudian kami melatih semua subset tetapi meninggalkan satu subset (k-1) untuk penilaian selepas model latihan.
Andaikan kita mempunyai 1000 rekod dan K=5 kita. Nilai K ini bermakna kita mempunyai 5 lelaran. Bilangan titik data untuk lelaran pertama yang akan dipertimbangkan untuk data ujian ialah 1000/5=200 dari permulaan. Kemudian untuk lelaran seterusnya, 200 titik data seterusnya akan dianggap sebagai ujian, dan seterusnya.
Untuk mengira ketepatan keseluruhan, kami mengira ketepatan bagi setiap lelaran dan kemudian mengambil purata.
Ketepatan minimum yang boleh kita perolehi daripada proses ini akan menjadi ketepatan terendah yang dihasilkan antara semua lelaran, begitu juga ketepatan maksimum akan menjadi ketepatan yang dihasilkan di antara semua lelaran Menghasilkan ketepatan tertinggi.
3.Pengesahan silang hierarki
CV hierarki ialah lanjutan daripada pengesahan silang lipatan k biasa, tetapi khusus untuk masalah klasifikasi yang mana pemisahan tidak rawak sepenuhnya dan nisbah antara kelas sasaran adalah sama pada setiap lipatan seperti dalam set data penuh.
Andaikan kita mempunyai 1000 rekod yang mengandungi 600 ya dan 400 tidak. Oleh itu, dalam setiap percubaan, ia memastikan bahawa sampel rawak yang dimasukkan ke dalam latihan dan ujian diisikan sedemikian rupa sehingga sekurang-kurangnya beberapa kejadian setiap kelas akan hadir dalam pembahagian latihan dan ujian.
4.Pengesahan Silang Siri Masa
Dalam CV siri masa terdapat satu siri set ujian, setiap set ujian mengandungi satu pemerhatian. Set latihan yang sepadan mengandungi hanya pemerhatian yang berlaku sebelum pemerhatian 〈🎜〉 yang membentuk set ujian. Oleh itu, pemerhatian masa hadapan tidak boleh digunakan untuk membina ramalan.
Ketepatan ramalan dikira dengan purata set ujian. Proses ini kadangkala dipanggil "penilaian asal ramalan bergulir" kerana "asal asal" yang berasaskan ramalan itu dilancarkan ke hadapan dalam masa.
Kesimpulan
Dalam pembelajaran mesin, kami biasanya tidak mahu algoritma atau model yang berprestasi terbaik pada set latihan. Sebaliknya, kami mahukan model yang berprestasi baik pada set ujian dan model yang konsisten berprestasi baik diberikan data input baharu. Pengesahan silang ialah langkah kritikal untuk memastikan kami dapat mengenal pasti algoritma atau model tersebut.
Atas ialah kandungan terperinci Empat teknik pengesahan silang yang anda mesti pelajari dalam pembelajaran mesin. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,

01Garis prospek Pada masa ini, sukar untuk mencapai keseimbangan yang sesuai antara kecekapan pengesanan dan hasil pengesanan. Kami telah membangunkan algoritma YOLOv5 yang dipertingkatkan untuk pengesanan sasaran dalam imej penderiaan jauh optik resolusi tinggi, menggunakan piramid ciri berbilang lapisan, strategi kepala pengesanan berbilang dan modul perhatian hibrid untuk meningkatkan kesan rangkaian pengesanan sasaran dalam imej penderiaan jauh optik. Menurut set data SIMD, peta algoritma baharu adalah 2.2% lebih baik daripada YOLOv5 dan 8.48% lebih baik daripada YOLOX, mencapai keseimbangan yang lebih baik antara hasil pengesanan dan kelajuan. 02 Latar Belakang & Motivasi Dengan perkembangan pesat teknologi penderiaan jauh, imej penderiaan jauh optik resolusi tinggi telah digunakan untuk menggambarkan banyak objek di permukaan bumi, termasuk pesawat, kereta, bangunan, dll. Pengesanan objek dalam tafsiran imej penderiaan jauh

Dalam C++, pelaksanaan algoritma pembelajaran mesin termasuk: Regresi linear: digunakan untuk meramalkan pembolehubah berterusan Langkah-langkah termasuk memuatkan data, mengira berat dan berat sebelah, mengemas kini parameter dan ramalan. Regresi logistik: digunakan untuk meramalkan pembolehubah diskret Proses ini serupa dengan regresi linear, tetapi menggunakan fungsi sigmoid untuk ramalan. Mesin Vektor Sokongan: Algoritma klasifikasi dan regresi yang berkuasa yang melibatkan pengkomputeran vektor sokongan dan label ramalan.
