


AI meniru model memori otak manusia, dan skor permainan melonjak sebanyak 29.9%
Kami sering diajar untuk "berfikir dua kali sebelum bertindak" dan menggunakan sepenuhnya pengalaman terkumpul Sekarang ayat ini juga telah memberi inspirasi kepada AI.
Model AI tradisional yang membuat keputusan tidak dapat mengumpul pengalaman secara berkesan disebabkan kewujudan kesan melupakan, tetapi penyelidikan yang diterajui China telah mengubah cara AI mengingati.
Kaedah ingatan baharu meniru otak manusia, meningkatkan kecekapan AI secara berkesan dalam mengumpul pengalaman, dengan itu meningkatkan prestasi permainan AI sebanyak 29.9%.
Pasukan penyelidik terdiri daripada enam orang, masing-masing dari Institut Penyelidikan AI Mira-Québec dan Institut Penyelidikan Microsoft Montreal, empat daripadanya adalah orang Cina.
Mereka menamakan keputusan Pengubah Keputusan dengan Memori (DT-Mem).
Berbanding dengan model tradisional membuat keputusan, DT-Mem lebih banyak digunakan dan kecekapan operasi model juga lebih tinggi.
Selain kesan penggunaan, masa latihan DT-Mem juga telah dipendekkan daripada minimum 200 jam kepada 50 jam.
Pada masa yang sama, pasukan itu juga mencadangkan kaedah penalaan halus untuk membolehkan DT-Mem menyesuaikan diri dengan senario baharu yang belum pernah dilatih.
Model yang ditala halus juga boleh berprestasi baik dalam permainan yang tidak pernah dipelajari sebelum ini.
Mekanisme kerja diilhamkan oleh manusia
Model membuat keputusan tradisional direka berdasarkan LLM, menggunakan memori tersirat dan prestasinya bergantung pada data dan pengiraan.
Kenangan tersirat dijana secara tidak sedar dan bukannya diingati dengan sengaja, dan oleh itu tidak dapat diingat semula secara sedar.
Secara ringkasnya, kandungan yang berkaitan jelas disimpan di sana, tetapi model itu tidak mengetahui kewujudannya.
Ciri ingatan tersirat ini menentukan bahawa model tradisional mempunyai fenomena lupa, menyebabkan kecekapan kerjanya rendah.
Fenomena lupa ialah selepas mempelajari cara baru untuk menyelesaikan masalah, model mungkin melupakan kandungan lama, walaupun masalah lama dan baru adalah jenis yang sama.
Otak manusia menggunakan kaedah storan memori teragih, dan kandungan ingatan disimpan secara berselerak di pelbagai kawasan otak yang berbeza.
Pendekatan ini membantu mengurus dan mengatur pelbagai kemahiran secara berkesan, dengan itu mengurangkan fenomena lupa.
Diilhamkan oleh ini, pasukan penyelidik mencadangkan modul memori kerja dalaman untuk menyimpan, mencampur dan mendapatkan maklumat untuk tugas hiliran yang berbeza.
Secara khusus, DT-Mem terdiri daripada tiga bahagian: Transformer, modul memori dan modul persepsi berbilang lapisan (MLP).
DT-Mem’s Transformer meniru seni bina GPT-2, tetapi memadamkan lapisan suapan ke hadapan selepas mekanisme perhatian.
Pada masa yang sama, modul MLP dalam GPT-2 dibahagikan kepada komponen bebas sebagai sebahagian daripada DT-Mem.
Di antara kedua-duanya, pasukan penyelidik memperkenalkan modul memori kerja untuk menyimpan dan memproses maklumat perantaraan.
Struktur ini diilhamkan oleh mesin Turing saraf, di mana memori digunakan untuk membuat kesimpulan pelbagai algoritma.
Modul memori menganalisis output maklumat oleh Transformer dan menentukan lokasi storannya dan cara mengintegrasikannya dengan maklumat sedia ada.
Selain itu, modul ini juga mempertimbangkan cara maklumat ini akan digunakan dalam proses membuat keputusan pada masa hadapan.
Tugas-tugas ini secara kasarnya diselesaikan dalam lima langkah Modul memori mula-mula dimulakan sebagai matriks rawak.
Kemudian datang pengisihan maklumat input Langkah ini bukan untuk menghantar maklumat kepada Transformer, tetapi untuk menyimpannya dalam ruang yang sama dalam bentuk tupel.
Selepas itu, anda perlu menentukan lokasi storan. Manusia biasanya menyimpan maklumat berkaitan di lokasi yang sama, dan DT-Mem juga berdasarkan prinsip ini.
Dua langkah terakhir - kemas kini dan pengambilan memori adalah teras modul memori dan pautan paling penting dalam keseluruhan DT-Mem.
Kemas kini ingatan, iaitu menyunting dan menggantikan maklumat sedia ada untuk memastikan maklumat dapat dikemas kini dalam masa mengikut keperluan tugasan.
Dalam langkah ini, DT-Mem akan mengira padam dan menulis vektor untuk menentukan cara mencampurkannya dengan data sedia ada.
Pendapatan semula memori ialah akses dan pemulihan maklumat sedia ada, dan pengambilan maklumat yang relevan dan berguna tepat pada masanya apabila keputusan perlu dibuat.
Sebelum dimasukkan ke dalam penggunaan sebenar, DT-Mem masih perlu melalui proses pra-latihan.
Bagi penalaan halus DT-Mem, pasukan juga mencadangkan cara baharu.
Memandangkan ia menggunakan data berlabel berasaskan tugas, penalaan halus ini boleh membantu DT-Mem menyesuaikan diri dengan tugasan baharu.
Proses ini berdasarkan penyesuaian peringkat rendah (LoRA), menambahkan elemen peringkat rendah pada matriks sedia ada.
Masa latihan dipendekkan sehingga 32 kali
Untuk menguji keupayaan DT-Mem membuat keputusan, pasukan penyelidik membiarkannya bermain beberapa permainan permainan.
Terdapat 5 permainan kesemuanya, semuanya daripada Atari.
Pada masa yang sama, pasukan itu turut menguji prestasi model tradisional M[ulti-game]DT sebagai rujukan.
Hasilnya, keputusan terbaik DT-Mem dalam 4 perlawanan adalah lebih baik daripada MDT.
Khususnya, DT-Mem meningkatkan skor ternormal DQN sebanyak 29.9% berbanding MDT.
Walau bagaimanapun, jumlah parameter DT-Mem hanyalah 20M, iaitu hanya 10% daripada MDT (200M parameter).
Persembahan sebegitu tidak keterlaluan sama sekali.
Selain prestasi cemerlangnya, kecekapan latihan DT-Mem juga mengatasi MDT.
Versi parameter 13M MDT mengambil masa 200 jam untuk berlatih, manakala 20M DT-Mem hanya mengambil masa 50 jam.
Berbanding dengan versi 200M, masa latihan dipendekkan sebanyak 32 kali, tetapi prestasinya lebih baik.
Keputusan ujian kaedah penalaan halus yang dicadangkan oleh pasukan juga menunjukkan bahawa penalaan halus ini meningkatkan keupayaan DT-Mem untuk menyesuaikan diri dengan yang tidak diketahui senario.
Perlu diingatkan bahawa permainan yang digunakan untuk ujian dalam jadual di bawah diketahui oleh MDT, jadi prestasi MDT tidak digunakan sebagai asas untuk pengukuran dalam pusingan ini.
Selain bermain permainan, pasukan itu juga menguji DT-Mem menggunakan penanda aras Meta-World ML45.
Yang dijadikan rujukan kali ini ialah H[yper]DT dan P[romot]DT.
Hasilnya menunjukkan bahawa antara model tanpa penalaan halus, skor DT-Mem adalah 8 mata peratusan lebih tinggi daripada HDT.
Perlu diambil perhatian bahawa walaupun HDT yang diuji di sini hanya mempunyai 69K parameter, ia bergantung pada model pra-terlatih dengan parameter 2.3M, jadi nombor parameter sebenar adalah lebih daripada 10 kali ganda daripada DT-Mem ( 147K) kali.
Alamat kertas: https://arxiv.org/ abs/2305.16338
Atas ialah kandungan terperinci AI meniru model memori otak manusia, dan skor permainan melonjak sebanyak 29.9%. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Pautan projek ditulis di hadapan: https://nianticlabs.github.io/mickey/ Memandangkan dua gambar, pose kamera di antara mereka boleh dianggarkan dengan mewujudkan kesesuaian antara gambar. Biasanya, surat-menyurat ini adalah 2D hingga 2D, dan anggaran pose kami adalah skala-tak tentu. Sesetengah aplikasi, seperti realiti tambahan segera pada bila-bila masa, di mana-mana sahaja, memerlukan anggaran pose metrik skala, jadi mereka bergantung pada penganggar kedalaman luaran untuk memulihkan skala. Makalah ini mencadangkan MicKey, proses pemadanan titik utama yang mampu meramalkan korespondensi metrik dalam ruang kamera 3D. Dengan mempelajari padanan koordinat 3D merentas imej, kami dapat membuat kesimpulan relatif metrik
