Rumah Peranti teknologi AI NeurIPS23 |. 'Bacaan Otak' menyahkod aktiviti otak dan membina semula dunia visual

NeurIPS23 |. 'Bacaan Otak' menyahkod aktiviti otak dan membina semula dunia visual

Jan 10, 2024 pm 02:54 PM
projek

Dalam kertas kerja NeurIPS23 ini, penyelidik dari Universiti Leuven, Universiti Nasional Singapura dan Institut Automasi Akademi Sains China mencadangkan "teknologi membaca otak" visual yang boleh menganalisis aktiviti otak manusia pada resolusi tinggi imej yang anda lihat dengan mata anda sendiri.

Dalam bidang neurosains kognitif, orang ramai menyedari bahawa persepsi manusia bukan sahaja dipengaruhi oleh rangsangan objektif, tetapi juga sangat dipengaruhi oleh pengalaman lalu. Faktor-faktor ini bekerjasama untuk mewujudkan aktiviti yang kompleks di dalam otak. Oleh itu, menyahkod maklumat visual daripada aktiviti otak menjadi tugas penting. Antaranya, pengimejan resonans magnetik berfungsi (fMRI), sebagai teknologi bukan invasif yang cekap, memainkan peranan penting dalam memulihkan dan menganalisis maklumat visual, terutamanya kategori imej Walau bagaimanapun, disebabkan oleh ciri-ciri bunyi isyarat fMRI dan penglihatan otak kerumitan perwakilan, tugas ini menghadapi cabaran yang besar. Untuk menangani masalah ini, kertas kerja ini mencadangkan rangka kerja pembelajaran perwakilan fMRI dua peringkat, yang bertujuan untuk mengenal pasti dan mengeluarkan bunyi dalam aktiviti otak, dan memfokuskan pada menghurai corak pengaktifan saraf yang penting untuk pembinaan semula visual, berjaya membina semula imej peringkat tinggi dari otak. aktiviti. resolusi dan imej tepat dari segi semantik.

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界Pautan kertas: https://arxiv.org/abs/2305.17214

Pautan projek: https://github.com/soinx0629/vis_dec_neurips/

Kaedah pembelajaran yang dicadangkan dalam kertas kontrastif , model silang Model silang maklumat negeri dan penyebaran telah mencapai hampir 40% peningkatan dalam penunjuk penilaian pada set data fMRI yang berkaitan berbanding model terbaik sebelum ini Kualiti, kebolehbacaan dan perkaitan semantik imej yang dihasilkan semuanya lebih baik daripada kaedah sedia ada. Peningkatan yang ketara. Kerja ini membantu memahami mekanisme persepsi visual otak manusia dan bermanfaat untuk mempromosikan penyelidikan mengenai teknologi antara muka otak-komputer visual. Kod yang berkaitan adalah sumber terbuka.

Walaupun pengimejan resonans magnetik berfungsi (fMRI) digunakan secara meluas untuk menganalisis tindak balas saraf, membina semula imej visual daripada datanya dengan tepat masih mencabar, terutamanya kerana data fMRI mengandungi hingar daripada pelbagai sumber, yang mungkin menutupi corak pengaktifan saraf. Di samping itu, proses tindak balas saraf yang dicetuskan oleh rangsangan visual adalah kompleks dan berbilang peringkat, menjadikan isyarat fMRI membentangkan superposisi kompleks tak linear yang sukar untuk diterbalikkan dan dinyahkod.

Kaedah penyahkodan saraf tradisional, seperti regresi rabung, walaupun digunakan untuk mengaitkan isyarat fMRI dengan rangsangan yang sepadan, selalunya gagal menangkap secara berkesan hubungan tak linear antara rangsangan dan tindak balas saraf. Baru-baru ini, teknik pembelajaran mendalam, seperti rangkaian permusuhan generatif (GAN) dan model resapan terpendam (LDM), telah diterima pakai untuk memodelkan hubungan kompleks ini dengan lebih tepat. Walau bagaimanapun, mengasingkan aktiviti otak berkaitan penglihatan daripada bunyi dan menyahkodnya dengan tepat kekal sebagai salah satu cabaran utama dalam bidang ini.

Untuk menangani cabaran ini, kerja ini mencadangkan rangka kerja pembelajaran perwakilan fMRI dua peringkat, yang boleh mengenal pasti dan menghilangkan bunyi bising dalam aktiviti otak secara berkesan dan menumpukan pada menghuraikan corak pengaktifan saraf yang penting untuk pembinaan semula visual. Kaedah ini menjana imej resolusi tinggi dan tepat dari segi semantik dengan ketepatan Top-1 sebanyak 39.34% untuk 50 kategori, melebihi teknologi terkini yang sedia ada.

Ikhtisar kaedah ialah penerangan ringkas tentang satu siri langkah atau proses. Ia digunakan untuk menerangkan cara mencapai matlamat tertentu atau menyelesaikan tugas tertentu. Tujuan gambaran keseluruhan kaedah adalah untuk memberikan pembaca atau pengguna pemahaman keseluruhan tentang keseluruhan proses supaya mereka dapat memahami dengan lebih baik dan mengikuti langkah-langkah di dalamnya. Dalam gambaran keseluruhan kaedah, anda biasanya menyertakan urutan langkah, bahan atau alatan yang diperlukan dan masalah atau cabaran yang mungkin dihadapi. Dengan menghuraikan gambaran keseluruhan kaedah dengan jelas dan padat, pembaca atau pengguna boleh lebih mudah memahami dan berjaya menyelesaikan tugasan yang diperlukan

fMRI Representation Learning (FRL)

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界Fasa 1: Pra-latihan autocoder dwi kontras DC-MAE)

Untuk membezakan corak aktiviti otak yang dikongsi dan bunyi individu dalam kalangan kumpulan orang yang berbeza, kertas kerja ini memperkenalkan teknologi DC-MAE untuk pra-melatih perwakilan fMRI menggunakan data tidak berlabel. DC-MAE terdiri daripada pengekod NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan penyahkod NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界, di mana NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual mengambil isyarat fMRI bertopeng sebagai input dan NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual dilatih untuk meramal isyarat fMRI yang tidak bertopeng. Apa yang dipanggil "kontras berganda" bermakna model mengoptimumkan kehilangan kontras dalam pembelajaran perwakilan fMRI dan mengambil bahagian dalam dua proses kontras yang berbeza.

Dalam peringkat pertama pembelajaran kontrastif, sampel NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dalam setiap kelompok yang mengandungi n sampel fMRI v bertopeng secara rawak dua kali, menghasilkan dua versi bertopeng yang berbeza NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 sebagai pasangan sampel positif untuk perbandingan. Selepas itu, lapisan konvolusi 1D menukar kedua-dua versi ini kepada perwakilan terbenam, yang masing-masing dimasukkan ke dalam pengekod fMRI NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual. Penyahkod NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual menerima perwakilan terpendam yang dikodkan ini dan menghasilkan ramalan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界. Optimumkan model melalui kehilangan kontras pertama yang dikira oleh fungsi kehilangan InfoNCE, iaitu kehilangan kontras silang:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Dalam peringkat kedua pembelajaran kontrastif, setiap imej asal yang dibuka NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan imej bertopeng yang sepadan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 membentuk sepasang sampel positif semula jadi. NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 di sini mewakili imej yang diramalkan oleh penyahkod NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual. Kehilangan kontras kedua, iaitu kehilangan kontras kendiri, dikira mengikut formula berikut:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Mengoptimumkan kehilangan kontras diriNeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 boleh mencapai pembinaan semula oklusi. Sama ada NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 atau NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, sampel negatif NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 datang daripada kumpulan kejadian yang sama. NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual dan NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual dioptimumkan secara bersama seperti berikut: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界, di mana hiperparameter NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 digunakan untuk melaraskan berat setiap tempoh kerugian.

  • Peringkat kedua: Penalaan menggunakan bimbingan silang modal

Memandangkan nisbah isyarat-ke-bunyi yang rendah dan sifat rakaman fMRI yang sangat konvolusi, adalah penting bagi pelajar ciri fMRI untuk memberi tumpuan kepada yang paling relevan dengan pemprosesan visual Dan adalah penting untuk membina semula corak pengaktifan otak yang paling bermaklumat

Selepas peringkat pertama pra-latihan, pengekod auto fMRI dilaraskan dengan bantuan imej untuk mencapai pembinaan semula fMRI, dan peringkat kedua juga mengikuti proses ini. Khususnya, sampel NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan tindak balas neural yang direkodkan fMRI yang sepadan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dipilih daripada kumpulan n sampel. NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual diproses dengan menyekat dan pelekat rawak, masing-masing diubah menjadi NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, dan kemudian dimasukkan ke dalam pengekod imej NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan pengekod fMRI NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual masing-masing untuk menjana NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界. Untuk membina semula fMRINeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, modul perhatian silang digunakan untuk menggabungkan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

W dan b masing-masing mewakili berat dan pincang lapisan linear yang sepadan. NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ialah faktor penskalaan dan NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ialah dimensi vektor kunci. CA ialah singkatan kepada cross-attention. Selepas NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ditambahkan pada NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, ia dimasukkan ke dalam penyahkod fMRI untuk membina semula NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, dan kita mendapat NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Pengiraan serupa juga dilakukan dalam pengekod automatik imej, dan output NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual digabungkan dengan pengekod imej modul perhatian silang NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 Output NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 digabungkan dan kemudian digunakan untuk menyahkod imej NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual, memberikan NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

fMRI dan pengekod auto imej dilatih bersama dengan mengoptimumkan fungsi kehilangan berikut:

apabila menjana imejNeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

model penyebaran terpendam boleh digunakan ( LDM)

Selepas melengkapkan latihan FRL peringkat pertama dan kedua, gunakan pengekod pelajar ciri fMRI NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual untuk memacu model resapan terpendam (LDM) untuk menjana imej daripada aktiviti otak. Seperti yang ditunjukkan dalam rajah, model resapan termasuk proses resapan ke hadapan dan proses penyahnosian terbalik. Proses ke hadapan secara beransur-ansur merendahkan imej kepada hingar Gaussian biasa dengan memperkenalkan secara beransur-ansur hingar Gaussian dengan variasi yang berbeza-beza.

Kajian ini menjana imej dengan mengekstrak pengetahuan visual daripada model resapan terpendam label-ke-imej (LDM) yang telah terlatih dan menggunakan data fMRI sebagai syarat. Mekanisme silang perhatian digunakan di sini untuk memasukkan maklumat fMRI ke dalam LDM, berikutan cadangan daripada kajian resapan yang stabil. Untuk mengukuhkan peranan maklumat bersyarat, kaedah perhatian silang dan pelaziman langkah masa digunakan di sini. Dalam fasa latihan, pengekod VQGAN NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 dan pengekod fMRI NeurIPS23 |. Bacaan Otak menyahkod aktiviti otak dan membina semula dunia visual dilatih oleh peringkat pertama dan kedua FRL digunakan untuk memproses imej u dan fMRI v, dan pengekod fMRI diperhalusi sambil memastikan LDM tidak berubah fungsi ialah: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

di mana, NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ialah skema hingar model resapan. Dalam fasa inferens, proses bermula dengan hingar Gaussian standard pada langkah masa T, dan LDM secara berurutan mengikut proses songsang untuk mengeluarkan secara beransur-ansur hingar perwakilan tersembunyi, dikondisikan pada maklumat fMRI yang diberikan. Apabila langkah masa sifar dicapai, perwakilan tersembunyi ditukar kepada imej menggunakan penyahkod VQGAN NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界. . model yang dicadangkan dengan ketara mengatasi model ini dalam ketepatan, dengan peningkatan sebanyak 39.34% dan 66.7% berbanding DC-LDM dan IC-GAN masing-masing

Penilaian ke atas empat subjek lain bagi set data GOD, walaupun semasa DC-LDM adalah dibenarkan untuk diselaraskan pada set ujian, model yang dicadangkan dalam kajian ini adalah jauh lebih baik daripada DC-LDM dalam ketepatan klasifikasi Top-1 sebanyak 50 cara, membuktikan bahawa model yang dicadangkan adalah berkesan dalam subjek yang berbeza dan keunggulan dalam membina semula subjek ' aktiviti otak.

Hasil penyelidikan menunjukkan bahawa menggunakan rangka kerja pembelajaran perwakilan fMRI yang dicadangkan dan LDM pra-latihan boleh membina semula aktiviti visual otak dengan lebih baik, jauh melebihi tahap asas semasa. Kerja ini membantu meneroka lebih lanjut potensi model penyahkodan saraf

Atas ialah kandungan terperinci NeurIPS23 |. 'Bacaan Otak' menyahkod aktiviti otak dan membina semula dunia visual. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Jul 17, 2024 am 01:56 AM

Ia juga merupakan video Tusheng, tetapi PaintsUndo telah mengambil laluan yang berbeza. Pengarang ControlNet LvminZhang mula hidup semula! Kali ini saya menyasarkan bidang lukisan. Projek baharu PaintsUndo telah menerima 1.4kstar (masih meningkat secara menggila) tidak lama selepas ia dilancarkan. Alamat projek: https://github.com/lllyasviel/Paints-UNDO Melalui projek ini, pengguna memasukkan imej statik, dan PaintsUndo secara automatik boleh membantu anda menjana video keseluruhan proses mengecat, daripada draf baris hingga produk siap . Semasa proses lukisan, perubahan garisan adalah menakjubkan Hasil akhir video sangat serupa dengan imej asal: Mari kita lihat lukisan lengkap.

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Jun 24, 2024 pm 03:04 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dalam proses pembangunan kecerdasan buatan, kawalan dan bimbingan model bahasa besar (LLM) sentiasa menjadi salah satu cabaran utama, bertujuan untuk memastikan model ini adalah kedua-duanya. berkuasa dan selamat untuk masyarakat manusia. Usaha awal tertumpu kepada kaedah pembelajaran pengukuhan melalui maklum balas manusia (RL

Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Jul 17, 2024 pm 10:02 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Semua pengarang kertas kerja ini adalah daripada pasukan guru Zhang Lingming di Universiti Illinois di Urbana-Champaign (UIUC), termasuk: Steven Code repair; pelajar kedoktoran tahun empat, penyelidik

Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Jul 19, 2024 am 01:29 AM

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Latihan aksiomatik membolehkan LLM mempelajari penaakulan kausal: model 67 juta parameter adalah setanding dengan trilion tahap parameter GPT-4 Latihan aksiomatik membolehkan LLM mempelajari penaakulan kausal: model 67 juta parameter adalah setanding dengan trilion tahap parameter GPT-4 Jul 17, 2024 am 10:14 AM

Tunjukkan rantai sebab kepada LLM dan ia mempelajari aksiom. AI sudah pun membantu ahli matematik dan saintis menjalankan penyelidikan Contohnya, ahli matematik terkenal Terence Tao telah berulang kali berkongsi pengalaman penyelidikan dan penerokaannya dengan bantuan alatan AI seperti GPT. Untuk AI bersaing dalam bidang ini, keupayaan penaakulan sebab yang kukuh dan boleh dipercayai adalah penting. Penyelidikan yang akan diperkenalkan dalam artikel ini mendapati bahawa model Transformer yang dilatih mengenai demonstrasi aksiom transitiviti sebab pada graf kecil boleh digeneralisasikan kepada aksiom transitiviti pada graf besar. Dalam erti kata lain, jika Transformer belajar untuk melakukan penaakulan sebab yang mudah, ia boleh digunakan untuk penaakulan sebab yang lebih kompleks. Rangka kerja latihan aksiomatik yang dicadangkan oleh pasukan adalah paradigma baharu untuk pembelajaran penaakulan sebab berdasarkan data pasif, dengan hanya demonstrasi

Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Aug 01, 2024 pm 05:18 PM

sorakan! Bagaimana rasanya apabila perbincangan kertas adalah perkataan? Baru-baru ini, pelajar di Universiti Stanford mencipta alphaXiv, forum perbincangan terbuka untuk kertas arXiv yang membenarkan soalan dan ulasan disiarkan terus pada mana-mana kertas arXiv. Pautan laman web: https://alphaxiv.org/ Malah, tidak perlu melawati tapak web ini secara khusus. Hanya tukar arXiv dalam mana-mana URL kepada alphaXiv untuk terus membuka kertas yang sepadan di forum alphaXiv: anda boleh mencari perenggan dengan tepat dalam. kertas itu, Ayat: Dalam ruang perbincangan di sebelah kanan, pengguna boleh menyiarkan soalan untuk bertanya kepada pengarang tentang idea dan butiran kertas tersebut Sebagai contoh, mereka juga boleh mengulas kandungan kertas tersebut, seperti: "Diberikan kepada

Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Aug 05, 2024 pm 03:32 PM

Baru-baru ini, Hipotesis Riemann, yang dikenali sebagai salah satu daripada tujuh masalah utama milenium, telah mencapai kejayaan baharu. Hipotesis Riemann ialah masalah yang tidak dapat diselesaikan yang sangat penting dalam matematik, berkaitan dengan sifat tepat taburan nombor perdana (nombor perdana ialah nombor yang hanya boleh dibahagikan dengan 1 dan dirinya sendiri, dan ia memainkan peranan asas dalam teori nombor). Dalam kesusasteraan matematik hari ini, terdapat lebih daripada seribu proposisi matematik berdasarkan penubuhan Hipotesis Riemann (atau bentuk umumnya). Dalam erti kata lain, sebaik sahaja Hipotesis Riemann dan bentuk umumnya dibuktikan, lebih daripada seribu proposisi ini akan ditetapkan sebagai teorem, yang akan memberi kesan yang mendalam terhadap bidang matematik dan jika Hipotesis Riemann terbukti salah, maka antara cadangan ini sebahagian daripadanya juga akan kehilangan keberkesanannya. Kejayaan baharu datang daripada profesor matematik MIT Larry Guth dan Universiti Oxford

Penjanaan video tanpa had, perancangan dan membuat keputusan, penyebaran paksa penyepaduan ramalan token seterusnya dan penyebaran jujukan penuh Penjanaan video tanpa had, perancangan dan membuat keputusan, penyebaran paksa penyepaduan ramalan token seterusnya dan penyebaran jujukan penuh Jul 23, 2024 pm 02:05 PM

Pada masa ini, model bahasa berskala besar autoregresif menggunakan paradigma ramalan token seterusnya telah menjadi popular di seluruh dunia Pada masa yang sama, sejumlah besar imej dan video sintetik di Internet telah menunjukkan kepada kami kuasa model penyebaran. Baru-baru ini, pasukan penyelidik di MITCSAIL (salah seorang daripadanya ialah Chen Boyuan, pelajar PhD di MIT) berjaya menyepadukan keupayaan berkuasa model resapan jujukan penuh dan model token seterusnya, dan mencadangkan paradigma latihan dan pensampelan: Diffusion Forcing (DF). ). Tajuk kertas: DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Alamat kertas: https:/

See all articles