Dengan perkembangan pesat kecerdasan buatan, terutamanya dalam bidang pemprosesan bahasa semula jadi (NLP), model bahasa besar (LLM) telah menunjukkan potensi besar untuk transformasi. Model-model ini mengubah cara kami bekerja dan berkomunikasi, dan menunjukkan pelbagai aplikasi merentas pelbagai peranti pengkomputeran. Walau bagaimanapun, model besar LLM membawa cabaran yang besar kepada aplikasinya pada peranti tepi seperti telefon pintar, peranti IoT dan sistem yang dipasang pada kenderaan. Persaingan kami bertujuan untuk menolak had prestasi, kecekapan dan keupayaan berbilang tugas LLM pada peranti kelebihan yang dikekang sumber. Latar belakang persaingan: Walaupun LLM mempunyai potensi aplikasi yang besar, parameternya yang besar meletakkan permintaan yang teruk pada sumber peranti tepi. Sebagai contoh, model LLM parameter 10B, walaupun selepas pemprosesan kuantisasi, memerlukan sehingga 20GB memori, dan kapasiti memori kebanyakan telefon pintar jauh daripada memenuhi keperluan ini. Selain itu, penggunaan tenaga LLM yang tinggi juga merupakan masalah besar Biasanya, telefon pintar yang dicas penuh hanya boleh bertahan kurang daripada dua jam apabila menggunakan LLM untuk perbualan. Cabaran utama: Keperluan memori: Inferens LLM memerlukan jumlah memori yang besar, yang mana telefon pintar mewah pun tidak dapat dibawa. Isu penggunaan tenaga: Penggunaan tenaga yang tinggi semasa inferens LLM menimbulkan cabaran kepada hayat bateri telefon pintar. Kehilangan prestasi: Mengekalkan prestasi model sambil mencapai nisbah mampatan yang tinggi adalah masalah utama dengan teknologi sedia ada. Kekurangan kefungsian luar talian: Kebanyakan LLM memerlukan sambungan Internet, yang mengehadkan aplikasinya dalam persekitaran dengan rangkaian yang tidak stabil. Matlamat Pertandingan: Pertandingan ini bertujuan untuk menyelesaikan cabaran di atas dan mempromosikan aplikasi praktikal LLM pada peranti edge. Kami menjemput penyelidik, jurutera dan profesional industri dari pelbagai bidang untuk mengambil bahagian untuk bersama-sama mereka bentuk sistem, perkakasan dan algoritma bagi membolehkan penggunaan LLM berprestasi tinggi pada peranti edge. Sertai Cabaran LLM Peranti Edge NeurIPS kami! Kami dengan ikhlas menjemput pakar dari pelbagai bidang untuk menyertai Cabaran NeurIPS untuk mempamerkan keupayaan LLM pada peranti edge Tiga teratas dalam pertandingan akan berkongsi jumlah hadiah sebanyak 300,000. Trek Pertandingan: Cabaran Mampatan: Tunjukkan cara memampatkan LLM yang telah dilatih tanpa kehilangan prestasi yang ketara. Cabaran latihan dari awal: Latih LLM yang direka bentuk untuk peranti tepi dari awal, mengoptimumkan proses latihan untuk mencipta model yang cekap. Sebab untuk mengambil bahagian: Menangi hadiah utama: jumlah keseluruhan hadiah sebanyak 300,000. Memacu inovasi: Menyumbang kepada penyelidikan termaju di LLM. Kembangkan rangkaian anda: Berhubung dengan pakar terkemuka dan rakan sebaya dalam bidang anda. Tunjukkan bakat anda: Dapatkan pengiktirafan di persidangan AI teratas. Tarikh penting: Pendaftaran bermula: 25 Jun 2024 Tarikh akhir pendaftaran: 25 Julai 2024 Tarikh akhir penyerahan: 25 Oktober 2024 Pengumuman keputusan: 20 November 2024 Bengkel Luar Talian: Bagaimana pula dengan 11 Disember 2024 Untuk menyertai: Pendaftaran: Daftar melalui Borang Google laman web pertandingan rasmi, laman web pertandingan rasmi. Pilih trek: Pilih daripada cabaran mampatan, latihan dari cabaran awal atau kedua-duanya. Serahkan penyelesaian anda: Serahkan model anda sebelum tarikh akhir. Adakah anda bersedia untuk menyahut cabaran? Daftar sekarang dan mulakan persediaan untuk pertandingan anda! Untuk maklumat lanjut dan pendaftaran sila lawati: Discord: Pautan Pendaftaran Pautan: Pautan Mari kita bekerjasama untuk mempromosikan pembangunan LLM pada peranti edge. Semoga anda berjaya dan berharap dapat berjumpa anda di NeurIPS 2024! ?Penganjur Cabaran LLM Peranti Edge NeuroIPS:
Atas ialah kandungan terperinci Cabaran Model Bahasa Besar Peranti Edge NeurIPS2024. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!