Adakah era pengesanan dan pelabelan objek telah berakhir?
Dalam bidang pembelajaran mesin yang berkembang pesat, satu aspek kekal berterusan: tugas pelabelan data yang membosankan dan memakan masa. Sama ada digunakan untuk pengelasan imej, pengesanan objek atau pembahagian semantik, set data berlabel manusia telah lama menjadi asas pembelajaran diselia.
Walau bagaimanapun, ini mungkin berubah tidak lama lagi terima kasih kepada alat inovatif yang dipanggil AutoDistill.
Pautan kod Github adalah seperti berikut: https://github.com/autodistill/autodistill?source=post_page.
AutoDistill ialah projek sumber terbuka terobosan yang bertujuan untuk merevolusikan proses pembelajaran diselia. Alat ini memanfaatkan model asas yang besar dan lebih perlahan untuk melatih model yang lebih kecil dan lebih pantas diselia, membolehkan pengguna pergi terus daripada imej tidak berlabel kepada model tersuai yang berjalan di tepi untuk membuat inferens tanpa campur tangan manusia.
Bagaimana AutoDistill berfungsi?
Proses penggunaan AutoDistill adalah semudah dan berkuasa seperti fungsinya. Data tidak berlabel dimasukkan dahulu ke dalam model asas. Model asas kemudian menggunakan ontologi untuk menganotasi set data untuk melatih model sasaran. Output ialah model suling yang melaksanakan tugas tertentu.
Mari terangkan komponen ini:
- Model Asas: Model asas ialah model asas yang besar seperti Grounding DINO. Model ini selalunya multimodal dan boleh melaksanakan banyak tugas, walaupun selalunya besar, perlahan dan mahal.
- Ontologi: Ontologi mentakrifkan cara untuk menggesa model asas, menerangkan kandungan set data dan perkara yang akan diramalkan oleh model sasaran.
- Dataset: Ini ialah satu set data berlabel secara automatik yang boleh digunakan untuk melatih model sasaran. Set data dijana oleh model asas menggunakan data input dan ontologi yang tidak berlabel.
- Model Sasaran: Model sasaran ialah model diselia yang menggunakan set data dan mengeluarkan model suling untuk penggunaan. Contoh model sasaran mungkin termasuk YOLO, DETR, dsb.
- Model Penyulingan: Ini ialah output akhir proses AutoPenyulingan. Ia adalah satu set pemberat yang diperhalusi untuk tugas anda dan boleh digunakan untuk mendapatkan ramalan.
Kemudahan penggunaan AutoDistill benar-benar mengagumkan: hantar data input tidak berlabel kepada model asas seperti Grounding DINO, kemudian gunakan ontologi untuk melabel set data untuk melatih model sasaran, dan berakhir dengan penyulingan dipercepatkan dan halus- penalaan model khusus tugasan
Sila klik pada pautan di bawah untuk menonton video untuk melihat proses bertindak: https://youtu.be/gKTYMfwPo4M
Impak AutoDistill
Penglihatan komputer sentiasa mempunyai satu halangan utama , iaitu Anotasi memerlukan banyak buruh manual. AutoDistill telah mengambil langkah penting ke arah menyelesaikan masalah ini. Model asas alat ini, mampu mencipta set data secara autonomi untuk banyak kes penggunaan biasa, dan mempunyai potensi besar untuk mengembangkan utiliti melalui gesaan kreatif dan pembelajaran beberapa pukulan
Walau bagaimanapun, walaupun kemajuan ini mengagumkan, ia tidak bermakna. data yang ditag tidak diperlukan lagi. Apabila model asas terus bertambah baik, model tersebut akan semakin dapat menggantikan atau menambah manusia dalam proses anotasi. Tetapi pada masa ini, anotasi manual masih diperlukan sedikit sebanyak.
Masa depan pengesanan objek
Memandangkan penyelidik terus meningkatkan ketepatan dan kecekapan algoritma pengesanan objek, kami menjangkakan untuk melihatnya digunakan dalam rangkaian aplikasi dunia sebenar yang lebih luas. Contohnya, pengesanan objek masa nyata ialah bidang penyelidikan utama dengan pelbagai aplikasi dalam bidang seperti pemanduan autonomi, sistem pengawasan dan analitik sukan.
Pengesanan objek dalam video ialah bidang penyelidikan yang mencabar yang melibatkan penjejakan objek merentas berbilang bingkai dan menangani kabur gerakan. Perkembangan dalam bidang ini akan membawa kemungkinan baharu untuk pengesanan objek, sambil turut menunjukkan potensi alatan seperti AutoDistill
Conclusion
AutoDistill mewakili perkembangan yang menarik dalam bidang pembelajaran mesin. Dengan menggunakan model asas untuk melatih model yang diselia, alat ini membuka jalan untuk masa depan di mana tugas membosankan anotasi data tidak lagi menjadi halangan dalam membangunkan dan menggunakan model pembelajaran mesin.
Atas ialah kandungan terperinci Adakah era pengesanan dan pelabelan objek telah berakhir?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Dalam istilah orang awam, model pembelajaran mesin ialah fungsi matematik yang memetakan data input kepada output yang diramalkan. Secara lebih khusus, model pembelajaran mesin ialah fungsi matematik yang melaraskan parameter model dengan belajar daripada data latihan untuk meminimumkan ralat antara output yang diramalkan dan label sebenar. Terdapat banyak model dalam pembelajaran mesin, seperti model regresi logistik, model pepohon keputusan, model mesin vektor sokongan, dll. Setiap model mempunyai jenis data dan jenis masalah yang berkenaan. Pada masa yang sama, terdapat banyak persamaan antara model yang berbeza, atau terdapat laluan tersembunyi untuk evolusi model. Mengambil perceptron penyambung sebagai contoh, dengan meningkatkan bilangan lapisan tersembunyi perceptron, kita boleh mengubahnya menjadi rangkaian neural yang mendalam. Jika fungsi kernel ditambah pada perceptron, ia boleh ditukar menjadi SVM. yang ini

Artikel ini akan memperkenalkan cara mengenal pasti pemasangan lampau dan kekurangan dalam model pembelajaran mesin secara berkesan melalui keluk pembelajaran. Underfitting dan overfitting 1. Overfitting Jika model terlampau latihan pada data sehingga ia mempelajari bunyi daripadanya, maka model tersebut dikatakan overfitting. Model yang dipasang terlebih dahulu mempelajari setiap contoh dengan sempurna sehingga ia akan salah mengklasifikasikan contoh yang tidak kelihatan/baharu. Untuk model terlampau, kami akan mendapat skor set latihan yang sempurna/hampir sempurna dan set pengesahan/skor ujian yang teruk. Diubah suai sedikit: "Punca overfitting: Gunakan model yang kompleks untuk menyelesaikan masalah mudah dan mengekstrak bunyi daripada data. Kerana set data kecil sebagai set latihan mungkin tidak mewakili perwakilan yang betul bagi semua data. 2. Underfitting Heru

Pada tahun 1950-an, kecerdasan buatan (AI) dilahirkan. Ketika itulah penyelidik mendapati bahawa mesin boleh melakukan tugas seperti manusia, seperti berfikir. Kemudian, pada tahun 1960-an, Jabatan Pertahanan A.S. membiayai kecerdasan buatan dan menubuhkan makmal untuk pembangunan selanjutnya. Penyelidik sedang mencari aplikasi untuk kecerdasan buatan dalam banyak bidang, seperti penerokaan angkasa lepas dan kelangsungan hidup dalam persekitaran yang melampau. Penerokaan angkasa lepas ialah kajian tentang alam semesta, yang meliputi seluruh alam semesta di luar bumi. Angkasa lepas diklasifikasikan sebagai persekitaran yang melampau kerana keadaannya berbeza daripada di Bumi. Untuk terus hidup di angkasa, banyak faktor mesti dipertimbangkan dan langkah berjaga-jaga mesti diambil. Para saintis dan penyelidik percaya bahawa meneroka ruang dan memahami keadaan semasa segala-galanya boleh membantu memahami cara alam semesta berfungsi dan bersedia untuk menghadapi kemungkinan krisis alam sekitar

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

1. Pengenalan Pada masa ini, pengesan objek utama ialah rangkaian dua peringkat atau satu peringkat berdasarkan rangkaian pengelas tulang belakang yang digunakan semula CNN dalam. YOLOv3 ialah salah satu pengesan satu peringkat tercanggih yang menerima imej input dan membahagikannya kepada matriks grid bersaiz sama. Sel grid dengan pusat sasaran bertanggungjawab untuk mengesan sasaran tertentu. Apa yang saya kongsikan hari ini ialah kaedah matematik baharu yang memperuntukkan berbilang grid kepada setiap sasaran untuk mencapai ramalan kotak sempadan ketat muat yang tepat. Para penyelidik juga mencadangkan peningkatan data salin-tampal luar talian yang berkesan untuk pengesanan sasaran. Kaedah yang baru dicadangkan dengan ketara mengatasi beberapa pengesan objek terkini dan menjanjikan prestasi yang lebih baik. 2. Rangkaian pengesanan sasaran latar belakang direka bentuk untuk digunakan

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,
