Jadual Kandungan
Pengkomputeran menetapkan piawaian untuk infrastruktur
Keturunan dan batasan pembangunan dipacu model
Kepintaran buatan berpusatkan data dan kesesakan data besar
Data latihan tradisional mencabar infrastruktur
Laluan ke data sintetik dan timbunan CV penuh
Harapan baru untuk apa yang dipanggil "pengurus data" visi komputer
Rumah Peranti teknologi AI Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan

Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan

Apr 29, 2023 pm 01:25 PM
penglihatan komputer Pengurusan data

Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan

Tanda kehebatan sebenar dalam hal infrastruktur ialah betapa mudahnya untuk dilalui. Semakin baik prestasinya, semakin kurang kita memikirkannya. Sebagai contoh, kepentingan infrastruktur mudah alih hanya terlintas di fikiran kita apabila kita mendapati diri kita bergelut untuk berhubung. Sama seperti ketika kita memandu di lebuh raya yang baru berturap, kita tidak terlalu memikirkan permukaan jalan ketika ia melalui senyap di bawah roda kita. Lebuh raya yang tidak diselenggara dengan baik, sebaliknya, mengingatkan kita tentang kewujudannya dengan setiap jalan berlubang, rumput dan benjolan yang kita hadapi.

Infrastruktur memerlukan perhatian kita hanya apabila ia hilang, tidak mencukupi atau rosak. Dan dalam penglihatan komputer, infrastruktur—atau lebih tepatnya, apa yang hilang daripadanya—adalah yang menjadi kebimbangan ramai sekarang.

Pengkomputeran menetapkan piawaian untuk infrastruktur

Menyokong setiap projek AI/ML (termasuk visi komputer) ialah tiga tiang pembangunan asas - data, algoritma/model dan pengiraan. Daripada ketiga-tiga tunjang ini, pengkomputeran adalah yang mempunyai infrastruktur yang paling kukuh dan kukuh. Dengan dekad pelaburan dan pembangunan perusahaan yang berdedikasi, pengkomputeran awan telah menjadi piawaian emas untuk infrastruktur IT merentas persekitaran IT perusahaan—dan visi komputer tidak terkecuali.

Dalam model infrastruktur-sebagai-perkhidmatan, pembangun telah menikmati akses atas permintaan, bayar semasa anda-pergi kepada saluran paip kuasa pengkomputeran yang sentiasa berkembang selama hampir 20 tahun. Pada masa itu, ia telah merevolusikan IT perusahaan dengan meningkatkan ketangkasan, kecekapan kos, kebolehskalaan dan banyak lagi secara mendadak. Dengan kemunculan GPU pembelajaran mesin khusus, boleh dikatakan bahawa bahagian timbunan infrastruktur penglihatan komputer ini masih hidup dan sihat. Jika kita ingin melihat visi komputer dan AI merealisasikan potensi penuh mereka, adalah bijak untuk menggunakan pengiraan sebagai model yang menjadi asas timbunan infrastruktur CV yang lain.

Keturunan dan batasan pembangunan dipacu model

Sehingga baru-baru ini, pembangunan algoritma dan model telah menjadi penggerak di sebalik pembangunan penglihatan komputer dan kecerdasan buatan. Dari segi penyelidikan dan pembangunan komersil, pasukan telah bekerja keras selama bertahun-tahun untuk menguji, menampal dan menambah baik model AI/ML secara berperingkat dan berkongsi kemajuan mereka dalam komuniti sumber terbuka seperti Kaggle. Bidang penglihatan komputer dan kecerdasan buatan mencapai kemajuan besar dalam dua dekad pertama alaf baharu dengan menumpukan usaha mereka pada pembangunan dan pemodelan algoritma.

Walau bagaimanapun, dalam beberapa tahun kebelakangan ini, kemajuan ini semakin perlahan kerana pengoptimuman berpaksikan model melanggar undang-undang pulangan yang semakin berkurangan. Tambahan pula, pendekatan berpusatkan model mempunyai beberapa batasan. Contohnya, anda tidak boleh menggunakan data yang sama untuk latihan dan kemudian melatih model itu semula. Pendekatan berpaksikan model juga memerlukan lebih banyak kerja manual dari segi pembersihan data, pengesahan model dan latihan, yang boleh menghilangkan masa dan sumber yang berharga daripada tugas menjana pendapatan yang lebih inovatif.

Hari ini, melalui komuniti seperti Hugging Face, pasukan CV mempunyai akses percuma dan terbuka kepada rangkaian besar algoritma, model dan seni bina yang besar dan kompleks, masing-masing menyokong keupayaan teras CV yang berbeza - daripada pengecaman objek dan pengecaman mercu tanda muka kepada anggaran pose dan padanan ciri. Aset ini telah menjadi hampir dengan penyelesaian "luar biasa" seperti yang boleh dibayangkan - menyediakan visi komputer dan pasukan AI dengan papan putih siap sedia untuk melatih sebarang tugas khusus dan kes penggunaan.

Kebolehan asas manusia seperti koordinasi tangan-mata boleh digunakan dan dilatih pada pelbagai kemahiran yang berbeza - daripada bermain pingpong hingga melempar - dan algoritma ML moden ini juga boleh dilatih untuk melaksanakan pelbagai tugas khusus. permohonan. Walau bagaimanapun, sementara manusia menjadi khusus melalui latihan dan peluh selama bertahun-tahun, mesin melakukan ini melalui latihan mengenai data.

Kepintaran buatan berpusatkan data dan kesesakan data besar

Ini telah mendorong ramai tokoh terkemuka dalam bidang kecerdasan buatan untuk memanggil era baharu pembangunan pembelajaran mendalam - dalam era ini, yang utama enjin kemajuan Ia data. Hanya beberapa tahun yang lalu, Andrew Ng dan yang lain mengumumkan bahawa data-centricity adalah hala tuju pembangunan AI. Dalam masa yang singkat ini, industri berkembang maju. Dalam beberapa tahun sahaja, pelbagai aplikasi komersil baru dan kes penggunaan untuk penglihatan komputer telah muncul, merangkumi pelbagai industri—daripada robotik dan AR/VR kepada pembuatan automotif dan keselamatan rumah.

Baru-baru ini, kami menjalankan penyelidikan tentang pengesanan tangan pada stereng dalam kereta menggunakan pendekatan berpusatkan data. Eksperimen kami menunjukkan bahawa dengan menggunakan pendekatan dan data sintetik ini, kami dapat mengenal pasti dan menjana kes kelebihan khusus yang kekurangan dalam set data latihan.

Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan

Datagen menjana imej sintetik untuk ujian stereng pegangan tangan (Imej disediakan oleh: Datagen)

Walaupun industri penglihatan komputer sibuk dengan data, tidak semuanya fanatik. Walaupun medan telah menetapkan bahawa data adalah jalan ke hadapan, terdapat banyak halangan dan perangkap di sepanjang jalan, kebanyakannya telah membingungkan pasukan CV. Tinjauan baru-baru ini ke atas profesional penglihatan komputer A.S. mendedahkan bahawa bidang ini dibelenggu oleh kelewatan projek yang lama, proses tidak standard dan kekurangan sumber-semuanya berpunca daripada data. Dalam tinjauan yang sama, 99% responden menyatakan bahawa sekurang-kurangnya satu projek CV telah dibatalkan selama-lamanya kerana data latihan yang tidak mencukupi.

Malah 1% bertuah yang telah mengelak pembatalan projek setakat ini tidak dapat mengelakkan kelewatan projek. Dalam tinjauan itu, setiap responden melaporkan mengalami kelewatan projek yang ketara disebabkan oleh data latihan yang tidak mencukupi atau tidak mencukupi, dengan 80% kelewatan pelaporan berlangsung selama tiga bulan atau lebih. Pada akhirnya, tujuan infrastruktur ialah satu utiliti—untuk memudahkan, mempercepatkan atau berkomunikasi. Dalam dunia yang kelewatan teruk hanyalah sebahagian daripada menjalankan perniagaan, jelas bahawa beberapa infrastruktur penting telah tiada.

Data latihan tradisional mencabar infrastruktur

Walau bagaimanapun, tidak seperti pengkomputeran dan algoritma, tonggak ketiga pembangunan AI/ML tidak sesuai dengan infrastruktur - terutamanya dalam bidang penglihatan komputer, Dalam bidang ini, data adalah besar, tidak teratur, dan kedua-dua masa dan sumber intensif untuk mengumpul dan mengurus. Walaupun terdapat banyak pangkalan data latihan visual yang berlabel dan tersedia secara percuma dalam talian (seperti pangkalan data ImageNet yang terkenal sekarang), mereka telah terbukti tidak mencukupi dengan sendirinya sebagai sumber data latihan dalam pembangunan CV komersial.

Ini kerana, tidak seperti model yang digeneralisasikan mengikut reka bentuk, data latihan mengikut sifatnya yang khusus untuk aplikasi. Data ialah perkara yang membezakan satu aplikasi model tertentu daripada yang lain, dan oleh itu mestilah unik bukan sahaja untuk tugas tertentu, tetapi juga kepada persekitaran atau konteks di mana tugas itu dilakukan. Tidak seperti kuasa pengkomputeran, yang boleh dijana dan diakses pada kelajuan cahaya, data visual tradisional mesti dicipta atau dikumpulkan oleh manusia (dengan mengambil foto di lapangan atau mencari di Internet untuk imej yang sesuai), dan kemudian dibersihkan dan dilabelkan dengan teliti oleh manusia. (ini adalah proses A yang terdedah kepada kesilapan manusia, ketidakkonsistenan dan berat sebelah).

Ini menimbulkan persoalan, "Bagaimanakah kita boleh membuat visualisasi data yang kedua-duanya sesuai untuk aplikasi tertentu dan mudah dikomoditi (iaitu, cepat, murah dan serba boleh)?" Kualiti ini mungkin kelihatan bercanggah, tetapi penyelesaian yang berpotensi telah muncul menunjukkan janji yang besar sebagai cara untuk mendamaikan kedua-dua kualiti asas tetapi nampaknya tidak serasi.

Laluan ke data sintetik dan timbunan CV penuh

Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan

Penglihatan Komputer (CV) ialah Salah satu bidang utama kecerdasan buatan moden

Satu-satunya cara untuk membuat data latihan visual yang mempunyai aplikasi khusus dan menjimatkan masa dan sumber secara berskala adalah dengan menggunakan data sintetik. Bagi mereka yang tidak biasa dengan konsep ini, data sintetik ialah maklumat yang dijana oleh manusia yang direka untuk mewakili beberapa persamaan dunia nyata dengan jujur. Dari segi data sintetik visual, ini bermakna imejan 3D (CGI) janaan komputer realistik dalam bentuk imej pegun atau video.

Sebagai tindak balas kepada banyak isu yang timbul dalam era pusat data, industri baru muncul telah mula terbentuk di sekitar penjanaan data sintetik - ekosistem yang semakin berkembang bagi syarikat permulaan kecil dan sederhana yang menawarkan pelbagai penyelesaian yang memanfaatkan sintetik data untuk menyelesaikan satu siri titik kesakitan yang disenaraikan di atas.

Penyelesaian yang paling menjanjikan ini menggunakan algoritma AI/ML untuk menjana imej 3D fotorealistik dan secara automatik menjana kebenaran asas yang berkaitan (iaitu metadata) untuk setiap titik data. Oleh itu, data sintetik menghapuskan proses pelabelan dan anotasi manual yang sering berbulan-bulan lamanya, sambil turut menghapuskan kemungkinan ralat dan berat sebelah manusia.

Dalam kertas kerja kami (diterbitkan di NeurIPS 2021), Menemui berat sebelah kumpulan dalam pengesanan mercu tanda muka menggunakan data sintetik, kami mendapati bahawa untuk menganalisis prestasi model terlatih dan mengenal pasti kelemahannya, subset data mesti ketepikan Untuk menguji. Set ujian mestilah cukup besar untuk mengesan sisihan ketara secara statistik berkenaan dengan semua subkumpulan yang berkaitan dalam populasi sasaran. Keperluan ini mungkin sukar dipenuhi, terutamanya dalam aplikasi intensif data.

Kami mencadangkan untuk mengatasi kesukaran ini dengan menghasilkan set ujian sintetik. Kami menggunakan tugas pengesanan mercu tanda muka untuk mengesahkan cadangan kami dengan menunjukkan bahawa semua berat sebelah yang diperhatikan pada set data sebenar juga boleh dilihat pada set data sintetik yang direka bentuk dengan baik. Ini menunjukkan bahawa set ujian sintetik dapat mengesan kelemahan model dengan berkesan dan mengatasi had dalam saiz atau kepelbagaian set ujian sebenar.

Hari ini, syarikat permulaan menyediakan pasukan CV perusahaan dengan platform penjanaan data sintetik layan diri yang canggih yang mengurangkan berat sebelah dan membolehkan pengumpulan data skala. Platform ini membenarkan pasukan CV perusahaan menjana data latihan khusus kes penggunaan secara bermeter, berdasarkan permintaan—merapatkan jurang antara kekhususan dan skala yang menjadikan data tradisional tidak sesuai untuk infrastruktur.

Harapan baru untuk apa yang dipanggil "pengurus data" visi komputer

Tidak dapat dinafikan bahawa ini adalah masa yang menarik untuk bidang penglihatan komputer. Tetapi, seperti mana-mana bidang perubahan lain, ini adalah masa yang mencabar. Bakat hebat dan minda yang cemerlang meluru ke bidang yang penuh dengan idea dan semangat, hanya untuk mendapati diri mereka terhalang oleh kekurangan saluran data yang mencukupi. Bidang ini sangat terperangkap dalam ketidakcekapan sehingga saintis data hari ini dikenali sebagai kawasan di mana satu daripada tiga organisasi sudah bergelut dengan jurang kemahiran, dan kami tidak mampu membazirkan sumber manusia yang berharga.

Data sintetik membuka pintu kepada infrastruktur data latihan yang sebenar – satu hari nanti mungkin semudah menghidupkan paip untuk segelas air atau menyediakan pengiraan. Ini pastinya merupakan penyegaran yang dialu-alukan untuk pengurus data di dunia.

Atas ialah kandungan terperinci Pengurusan data telah menjadi hambatan terbesar dalam pembangunan kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Perbezaan antara algoritma pengesanan sasaran satu peringkat dan dwi peringkat Perbezaan antara algoritma pengesanan sasaran satu peringkat dan dwi peringkat Jan 23, 2024 pm 01:48 PM

Pengesanan objek adalah tugas penting dalam bidang penglihatan komputer, digunakan untuk mengenal pasti objek dalam imej atau video dan mencari lokasinya. Tugasan ini biasanya dibahagikan kepada dua kategori algoritma, satu peringkat dan dua peringkat, yang berbeza dari segi ketepatan dan keteguhan. Algoritma pengesanan sasaran satu peringkat Algoritma pengesanan sasaran satu peringkat menukarkan pengesanan sasaran kepada masalah klasifikasi Kelebihannya ialah ia pantas dan boleh menyelesaikan pengesanan hanya dalam satu langkah. Walau bagaimanapun, disebabkan terlalu memudahkan, ketepatan biasanya tidak sebaik algoritma pengesanan objek dua peringkat. Algoritma pengesanan sasaran satu peringkat biasa termasuk YOLO, SSD dan FasterR-CNN. Algoritma ini biasanya mengambil keseluruhan imej sebagai input dan menjalankan pengelas untuk mengenal pasti objek sasaran. Tidak seperti algoritma pengesanan sasaran dua peringkat tradisional, mereka tidak perlu menentukan kawasan terlebih dahulu, tetapi meramalkan secara langsung

Aplikasi teknologi AI dalam pembinaan semula resolusi super imej Aplikasi teknologi AI dalam pembinaan semula resolusi super imej Jan 23, 2024 am 08:06 AM

Pembinaan semula imej resolusi super ialah proses menjana imej resolusi tinggi daripada imej resolusi rendah menggunakan teknik pembelajaran mendalam seperti rangkaian neural convolutional (CNN) dan rangkaian adversarial generatif (GAN). Matlamat kaedah ini adalah untuk meningkatkan kualiti dan perincian imej dengan menukar imej resolusi rendah kepada imej resolusi tinggi. Teknologi ini mempunyai aplikasi yang luas dalam banyak bidang, seperti pengimejan perubatan, kamera pengawasan, imej satelit, dsb. Melalui pembinaan semula imej resolusi super, kami boleh mendapatkan imej yang lebih jelas dan terperinci, membantu menganalisis dan mengenal pasti sasaran dan ciri dalam imej dengan lebih tepat. Kaedah pembinaan semula Kaedah pembinaan semula imej resolusi super secara amnya boleh dibahagikan kepada dua kategori: kaedah berasaskan interpolasi dan kaedah berasaskan pembelajaran mendalam. 1) Kaedah berasaskan interpolasi Pembinaan semula imej resolusi super berdasarkan interpolasi

Cara menggunakan teknologi AI untuk memulihkan foto lama (dengan contoh dan analisis kod) Cara menggunakan teknologi AI untuk memulihkan foto lama (dengan contoh dan analisis kod) Jan 24, 2024 pm 09:57 PM

Pemulihan foto lama ialah kaedah menggunakan teknologi kecerdasan buatan untuk membaiki, menambah baik dan menambah baik foto lama. Menggunakan penglihatan komputer dan algoritma pembelajaran mesin, teknologi ini secara automatik boleh mengenal pasti dan membaiki kerosakan dan kecacatan pada foto lama, menjadikannya kelihatan lebih jelas, lebih semula jadi dan lebih realistik. Prinsip teknikal pemulihan foto lama terutamanya merangkumi aspek-aspek berikut: 1. Penyahnosian dan penambahbaikan imej Apabila memulihkan foto lama, foto itu perlu dibunyikan dan dipertingkatkan terlebih dahulu. Algoritma dan penapis pemprosesan imej, seperti penapisan min, penapisan Gaussian, penapisan dua hala, dsb., boleh digunakan untuk menyelesaikan masalah bunyi dan bintik warna, dengan itu meningkatkan kualiti foto. 2. Pemulihan dan pembaikan imej Dalam foto lama, mungkin terdapat beberapa kecacatan dan kerosakan, seperti calar, retak, pudar, dsb. Masalah ini boleh diselesaikan dengan algoritma pemulihan dan pembaikan imej

Algoritma Ciri Invarian Skala (SIFT). Algoritma Ciri Invarian Skala (SIFT). Jan 22, 2024 pm 05:09 PM

Algoritma Scale Invariant Feature Transform (SIFT) ialah algoritma pengekstrakan ciri yang digunakan dalam bidang pemprosesan imej dan penglihatan komputer. Algoritma ini telah dicadangkan pada tahun 1999 untuk meningkatkan pengecaman objek dan prestasi pemadanan dalam sistem penglihatan komputer. Algoritma SIFT adalah teguh dan tepat dan digunakan secara meluas dalam pengecaman imej, pembinaan semula tiga dimensi, pengesanan sasaran, penjejakan video dan medan lain. Ia mencapai invarian skala dengan mengesan titik utama dalam ruang skala berbilang dan mengekstrak deskriptor ciri tempatan di sekitar titik utama. Langkah-langkah utama algoritma SIFT termasuk pembinaan ruang skala, pengesanan titik utama, kedudukan titik utama, penetapan arah dan penjanaan deskriptor ciri. Melalui langkah-langkah ini, algoritma SIFT boleh mengekstrak ciri yang teguh dan unik, dengan itu mencapai pemprosesan imej yang cekap.

Pengenalan kepada kaedah anotasi imej dan senario aplikasi biasa Pengenalan kepada kaedah anotasi imej dan senario aplikasi biasa Jan 22, 2024 pm 07:57 PM

Dalam bidang pembelajaran mesin dan penglihatan komputer, anotasi imej ialah proses menggunakan anotasi manusia pada set data imej. Kaedah anotasi imej boleh dibahagikan terutamanya kepada dua kategori: anotasi manual dan anotasi automatik. Anotasi manual bermaksud anotasi manusia menganotasi imej melalui operasi manual. Kaedah ini memerlukan anotasi manusia untuk mempunyai pengetahuan dan pengalaman profesional serta dapat mengenal pasti dan menganotasi objek sasaran, adegan atau ciri dalam imej dengan tepat. Kelebihan anotasi manual ialah hasil anotasi boleh dipercayai dan tepat, tetapi kelemahannya ialah ia memakan masa dan kos yang tinggi. Anotasi automatik merujuk kepada kaedah menggunakan program komputer untuk menganotasi imej secara automatik. Kaedah ini menggunakan pembelajaran mesin dan teknologi penglihatan komputer untuk mencapai anotasi automatik oleh model latihan. Kelebihan pelabelan automatik adalah kelajuan pantas dan kos rendah, tetapi kelemahannya ialah keputusan pelabelan mungkin tidak tepat.

Tafsiran konsep pengesanan sasaran dalam penglihatan komputer Tafsiran konsep pengesanan sasaran dalam penglihatan komputer Jan 24, 2024 pm 03:18 PM

Penjejakan objek ialah tugas penting dalam penglihatan komputer dan digunakan secara meluas dalam pemantauan trafik, robotik, pengimejan perubatan, pengesanan kenderaan automatik dan bidang lain. Ia menggunakan kaedah pembelajaran mendalam untuk meramal atau menganggarkan kedudukan objek sasaran dalam setiap bingkai berturut-turut dalam video selepas menentukan kedudukan awal objek sasaran. Penjejakan objek mempunyai pelbagai aplikasi dalam kehidupan sebenar dan sangat penting dalam bidang penglihatan komputer. Penjejakan objek biasanya melibatkan proses pengesanan objek. Berikut ialah gambaran ringkas tentang langkah-langkah pengesanan objek: 1. Pengesanan objek, di mana algoritma mengelaskan dan mengesan objek dengan mencipta kotak sempadan di sekelilingnya. 2. Berikan pengenalan unik (ID) kepada setiap objek. 3. Jejaki pergerakan objek yang dikesan dalam bingkai sambil menyimpan maklumat yang berkaitan. Jenis Sasaran Penjejakan Sasaran

Contoh aplikasi praktikal gabungan ciri cetek dan ciri mendalam Contoh aplikasi praktikal gabungan ciri cetek dan ciri mendalam Jan 22, 2024 pm 05:00 PM

Pembelajaran mendalam telah mencapai kejayaan besar dalam bidang penglihatan komputer, dan salah satu kemajuan penting ialah penggunaan rangkaian neural convolutional dalam (CNN) untuk klasifikasi imej. Walau bagaimanapun, CNN dalam biasanya memerlukan sejumlah besar data berlabel dan sumber pengkomputeran. Untuk mengurangkan permintaan untuk sumber pengiraan dan data berlabel, penyelidik mula mengkaji cara menggabungkan ciri cetek dan ciri mendalam untuk meningkatkan prestasi klasifikasi imej. Kaedah gabungan ini boleh mengambil kesempatan daripada kecekapan pengiraan yang tinggi bagi ciri cetek dan keupayaan perwakilan yang kuat bagi ciri mendalam. Dengan menggabungkan kedua-duanya, kos pengiraan dan keperluan pelabelan data boleh dikurangkan sambil mengekalkan ketepatan klasifikasi yang tinggi. Kaedah ini amat penting untuk senario aplikasi di mana jumlah data adalah kecil atau sumber pengkomputeran adalah terhad. Dengan kajian mendalam tentang kaedah gabungan ciri cetek dan ciri mendalam, kita boleh lebih lanjut

Persidangan Kecerdasan Buatan Teragih DAI 2024 Call for Papers: Hari Agen, Richard Sutton, bapa pembelajaran pengukuhan, akan hadir! Yan Shuicheng, Sergey Levine dan saintis DeepMind akan memberikan ucaptama Persidangan Kecerdasan Buatan Teragih DAI 2024 Call for Papers: Hari Agen, Richard Sutton, bapa pembelajaran pengukuhan, akan hadir! Yan Shuicheng, Sergey Levine dan saintis DeepMind akan memberikan ucaptama Aug 22, 2024 pm 08:02 PM

Pengenalan Persidangan Dengan perkembangan pesat sains dan teknologi, kecerdasan buatan telah menjadi kuasa penting dalam menggalakkan kemajuan sosial. Dalam era ini, kami bertuah untuk menyaksikan dan mengambil bahagian dalam inovasi dan aplikasi Kecerdasan Buatan Teragih (DAI). Kecerdasan buatan yang diedarkan adalah cabang penting dalam bidang kecerdasan buatan, yang telah menarik lebih banyak perhatian dalam beberapa tahun kebelakangan ini. Agen berdasarkan model bahasa besar (LLM) tiba-tiba muncul Dengan menggabungkan pemahaman bahasa yang kuat dan keupayaan penjanaan model besar, mereka telah menunjukkan potensi besar dalam interaksi bahasa semula jadi, penaakulan pengetahuan, perancangan tugas, dsb. AIAgent mengambil alih model bahasa besar dan telah menjadi topik hangat dalam kalangan AI semasa. Au

See all articles