Rumah Peranti teknologi AI Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti 'hippocampus'

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti 'hippocampus'

Apr 11, 2023 pm 03:43 PM
Model transforme

Saya tidak boleh menciptanya, dan saya juga tidak memahaminya Untuk mencipta kecerdasan buatan, kita mesti terlebih dahulu memahami otak manusia Betapa pintarnya.

Dengan kelahiran rangkaian saraf dan perkembangan cemerlangnya yang seterusnya, para penyelidik telah mencari penjelasan biologi

dan kemajuan biologi untuk rangkaian saraf itu juga memberi inspirasi kepada penyelidik AI untuk membangunkan model baharu.

Tetapi penyelidik dalam bidang kecerdasan buatan sebenarnya mempunyai usaha yang lebih bercita-cita tinggi: Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampusMenggunakan model AI untuk membantu memahami otak

.

Penyelidikan terkini mendapati walaupun model Transformer

yang paling popular telah dibangunkan

tanpa sebarang bantuan daripada pengetahuan biologi , tetapi struktur nya sangat serupa dengan struktur hippocampus otak manusia .

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampusPautan kertas: https://arxiv.org/pdf/2112.04035.pdf

Selepas melengkapkan Transformer dengan pengekodan kedudukan rekursif, penyelidik mendapati model itu boleh mereplikasi dengan tepat perwakilan spatial

pembentukan hippocampal.

Walau bagaimanapun, penulis juga mengatakan bahawa dia tidak terkejut dengan keputusan ini, kerana Transformer berkait rapat dengan model hippocampal

semasa dalam neurosains, yang paling jelas. ialah

Sel letak (sel letak) dan Sel grid (sel grid). Selain itu, didapati melalui eksperimen bahawa model Transformer mempunyai peningkatan prestasi yang besar berbanding model yang disediakan oleh versi neurosains.

Kerja ini menggabungkan pengiraan rangkaian saraf tiruan dan rangkaian otak untuk memberikan pemahaman baharu tentang interaksi antara hippocampus dan korteks serebrum

, dan membayangkan bagaimana kawasan kortikal mungkin melaksanakan

pelbagai tugas kompleks yang lebih luas melangkaui model saintifik saraf semasa , seperti pemahaman bahasa. Transformer meniru hippocampus?

Masih sukar bagi manusia untuk memahami otak mereka sendiri Contohnya, mengkaji cara otak mengatur dan mengakses maklumat spatial untuk menyelesaikan "di mana kita berada, apa yang ada di sekeliling dan bagaimana untuk sampai ke sana. " masih merupakan satu tugas yang sukar. cabaran.

Seluruh proses mungkin melibatkan panggilan keseluruhan rangkaian memori dan menyimpan data spatial daripada berpuluh bilion neuron, setiap satu disambungkan kepada beribu-ribu neuron lain.

Walaupun ahli sains saraf telah mengenal pasti beberapa elemen utama, seperti sel grid, neuron yang memetakan kedudukan, cara untuk pergi lebih dalam masih tidak diketahui: penyelidik tidak boleh bergerak Bahagikan dan kaji kepingan jirim kelabu manusia untuk dilihat bagaimana memori berasaskan lokasi bagi imej, bunyi dan bau mengalir dan bersambung antara satu sama lain.

Model kecerdasan buatan menyediakan cara lain untuk memahami otak manusia Selama bertahun-tahun, ahli sains saraf telah menggunakan pelbagai jenis rangkaian saraf untuk mensimulasikan penembakan neuron dalam otak.

Penyelidikan terkini menunjukkan bahawa hippocampus (struktur otak yang penting untuk ingatan) pada asasnya serupa dengan model Transformer.

Penyelidik telah mencapai beberapa keputusan yang luar biasa menggunakan model baharu untuk mengesan maklumat spatial dengan cara yang serupa dengan kerja dalaman otak.

James Whittington, ahli sains saraf kognitif dari Universiti Oxford dan Universiti Stanford, berkata apabila kita tahu bahawa model otak ini bersamaan dengan Transformer, ia bermakna Model baharu akan berprestasi lebih baik dan lebih mudah untuk dilatih. Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampus

Seperti yang dilihat daripada kerja Whittington dan lain-lain, Transformer boleh meningkatkan keupayaan model rangkaian saraf untuk meniru pelbagai pengiraan yang dilakukan oleh sel grid dan bahagian lain otak.

Whittington berkata model sedemikian boleh memajukan pemahaman kita tentang cara rangkaian saraf tiruan berfungsi, dan kemungkinan besar, cara pengiraan dilakukan dalam otak.

David Ha, seorang saintis komputer di Google Brain yang kebanyakannya terlibat dalam penyelidikan model Transformer, berkata bahawa kami tidak cuba mencipta semula otak baharu, tetapi bolehkah kami mencipta mekanisme untuk melakukan apa yang otak boleh buat?

Transformer pertama kali dicadangkan lima tahun lalu sebagai model baharu untuk kecerdasan buatan untuk memproses bahasa semula jadi Ia juga merupakan senjata rahsia "model bintang" seperti BERT dan GPT-3. . Model ini boleh menjana lirik lagu yang meyakinkan, mengarang soneta Shakespeare, atau melakukan beberapa kerja perkhidmatan pelanggan manusia.

Mekanisme teras Transformer ialah perhatian kendiri, di mana setiap input (seperti perkataan, piksel, nombor dalam urutan) sentiasa disambungkan kepada semua input lain dan rangkaian neural biasa yang lain hanya menyambungkan input kepada input tertentu.

Walaupun Transformer direka khusus untuk tugasan bahasa semula jadi, penyelidikan seterusnya juga membuktikan bahawa Transformer juga berfungsi dengan baik dalam tugasan lain, seperti mengelaskan imej, dan kini Otak dimodelkan.

Pada tahun 2020, pasukan yang diketuai oleh Sepp Hochreiter, seorang saintis komputer di Universiti Johann Kepler di Linz, Austria (pengarang pertama kertas LSTM), menggunakan Transformer untuk menggunakan semula alat yang berkuasa. , jangka panjang Model perolehan ingatan sedia ada Rangkaian Hopfield.

Pertama kali dicadangkan oleh ahli fizik Princeton John Hopfield 40 tahun yang lalu, rangkaian ini mengikut peraturan umum: Neuron yang aktif pada masa yang sama mewujudkan hubungan yang kukuh antara satu sama lain.

Hochreiter dan rakan usaha samanya menyatakan bahawa penyelidik sentiasa mencari model perolehan semula ingatan yang lebih baik, dan mereka melihat cara kelas baharu rangkaian Hopfield mendapatkan semula ingatan dan cara Transformers melakukan hubungan perhatian antara daya.

Dibangunkan oleh Hopfield dan Dmitry Krotov dari Makmal Kepintaran Buatan MIT-IBM Watson, rangkaian Hopfield baharu ini menampilkan sambungan yang lebih cekap daripada rangkaian Hopfield standard, lebih banyak kenangan boleh disimpan dan diambil semula.

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampus

Pautan kertas: https://papers.nips.cc/paper/2016/hash/eaae339c4d89fc102edd9dbdb6a28915

Pasukan Hochreiter menaik taraf rangkaian ini dengan menambahkan peraturan yang serupa dengan mekanisme perhatian dalam Transformer.

Pada tahun 2022, kertas baharu ini melaraskan lagi kaedah Hochreiter dan mengubah suai Transformer supaya ia tidak lagi menganggap ingatan sebagai urutan linear, tetapi seperti rentetan dalam perkataan ayat, mengekodkannya sebagai koordinat dalam ruang berdimensi tinggi.

Para penyelidik mengatakan "putaran" ini meningkatkan lagi prestasi model pada tugasan neurosains. Keputusan eksperimen juga menunjukkan bahawa model itu secara matematik setara dengan model pola penembakan sel grid yang dilihat oleh ahli sains saraf dalam imbasan fMRI.

Caswell Barry, ahli sains saraf di University College London, berkata bahawa sel grid mempunyai struktur teratur yang menarik, cantik dan dengan corak yang menarik yang tidak Terlalu mungkin muncul secara rawak.

Kerja baharu ini menunjukkan cara Transformer mereplikasi dengan tepat corak yang diperhatikan dalam hippocampus.

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampus

Mereka juga menyedari bahawa model Transformer boleh mengetahui di mana ia berdasarkan keadaan sebelumnya dan bagaimana ia bergerak, dan dengan cara yang penting ke dalam model sel grid tradisional.

Beberapa karya terbaru lain juga mencadangkan bahawa Transformers boleh memajukan pemahaman kita tentang fungsi otak yang lain.

Tahun lepas, pakar neurosains pengiraan MIT, Martin Schrimpf menganalisis 43 model rangkaian saraf yang berbeza untuk memahami kesannya terhadap pengukuran aktiviti saraf manusia yang dilaporkan oleh fMRI dan elektrokortikografi.

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampus

Beliau mendapati Transformer kini merupakan rangkaian neural terkemuka dan paling maju yang boleh meramalkan hampir semua perubahan yang terdapat dalam pengimejan.

David Ha dan Yujin Tang, juga seorang saintis komputer, baru-baru ini mereka bentuk model yang boleh secara sengaja memasukkan sejumlah besar data ke dalam Transformer secara rawak dan tidak teratur, meniru cara manusia badan menghantar data ke otak. Ternyata Transformer berjaya memproses aliran maklumat yang tidak teratur sama seperti otak kita.

Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti hippocampus

Pautan kertas: https://arxiv.org/abs/2111.14377

Yujin Tang berkata bahawa rangkaian saraf adalah berwayar keras dan hanya boleh menerima input tertentu. Tetapi dalam kehidupan sebenar, set data sering berubah dengan cepat, dan kebanyakan AI tidak mempunyai sebarang cara untuk menyesuaikan diri. Pada masa hadapan kami ingin mencuba seni bina yang boleh menyesuaikan diri dengan cepat.

Atas ialah kandungan terperinci Terdapat juga Transformer dalam otak! Mekanisme yang sama seperti 'hippocampus'. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Arahan sembang dan cara menggunakannya
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Apr 01, 2024 pm 07:46 PM

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masa Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masa Mar 18, 2024 am 09:20 AM

Hari ini saya ingin berkongsi kerja penyelidikan terbaru dari University of Connecticut yang mencadangkan kaedah untuk menyelaraskan data siri masa dengan model pemprosesan bahasa semula jadi (NLP) yang besar pada ruang terpendam untuk meningkatkan prestasi peramalan siri masa. Kunci kepada kaedah ini ialah menggunakan petunjuk spatial terpendam (prompt) untuk meningkatkan ketepatan ramalan siri masa. Tajuk kertas: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting Alamat muat turun: https://arxiv.org/pdf/2403.05798v1.pdf 1. Model latar belakang masalah besar

FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye Apr 26, 2024 am 11:37 AM

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! May 06, 2024 pm 04:13 PM

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

See all articles