Editor |. Kulit Lobak
Apabila memproses bahasa, otak menggunakan pengiraan khusus untuk membina makna daripada struktur linguistik yang kompleks. Rangkaian saraf tiruan berdasarkan seni bina Transformer adalah alat penting untuk pemprosesan bahasa semula jadi.
Para penyelidik Universiti Princeton meneroka model Transformer dan pengkhususan fungsi otak manusia dalam pemprosesan bahasa.
Transformer menyepadukan maklumat kontekstual antara perkataan melalui pengiraan litar berstruktur. Walau bagaimanapun, penyelidikan semasa tertumpu terutamanya pada perwakilan dalaman ("benam") yang dijana oleh litar ini.
Para penyelidik menganalisis pengiraan litar secara langsung: mereka menyahbina pengiraan ini kepada "transformasi" khusus fungsi yang menyepadukan maklumat kontekstual merentas perkataan. Menggunakan data MRI berfungsi yang diperoleh semasa peserta mendengar cerita naturalistik, para penyelidik menguji sama ada "transformasi" ini boleh menyumbang kepada perbezaan ketara dalam aktiviti otak merentasi rangkaian bahasa kortikal.
Penyelidikan telah membuktikan bahawa pengiraan muncul yang dilakukan oleh setiap "kepala perhatian" khusus berfungsi meramalkan aktiviti otak di kawasan kortikal tertentu dengan cara yang berbeza. Kepala perhatian ini turun mengikut kecerunan yang sepadan dengan lapisan dan panjang konteks yang berbeza dalam ruang kortikal dimensi rendah.
Penyelidikan telah diterbitkan dalam "Komunikasi Alam Semulajadi" pada 29 Jun 2024 di bawah tajuk "Pengkhususan fungsi yang dikongsi dalam model bahasa berasaskan pengubah dan otak manusia".
Pemahaman bahasa pada asasnya adalah proses yang membina. Otak kita menyelesaikan pergantungan setempat antara perkataan, menghimpun unit bahasa peringkat rendah menjadi unit makna peringkat tinggi, dan akhirnya membentuk naratif yang kita gunakan untuk memahami dunia.
Sebagai contoh, jika penceramah menyebut "rancangan rahsia", kami akan memproses secara tersirat hubungan antara perkataan dalam struktur ini untuk memahami bahawa "rahsia" mengubah "rancangan". Pada peringkat yang lebih tinggi, kami menggunakan konteks naratif di sekeliling untuk memahami maksud frasa—apa yang diperlukan oleh rancangan ini, siapa yang merahsiakan ini dan dari siapa mereka merahsiakannya?
Konteks ini mungkin mengandungi ratusan perkataan yang tersebar dalam beberapa minit. Otak manusia difikirkan untuk melaksanakan proses ini melalui satu siri pengiraan khusus berfungsi yang menukar isyarat pertuturan kepada perwakilan makna yang boleh diambil tindakan.
Penyelidikan neuroimaging tradisional menggunakan kaedah eksperimen untuk menganalisis proses pengiraan bahasa tertentu dan memetakannya kepada aktiviti otak dalam persekitaran terkawal. Walau bagaimanapun, pendekatan ini mempunyai kesukaran untuk menyamaratakan kerumitan bahasa semula jadi.
Dalam beberapa tahun kebelakangan ini, rangkaian saraf dalam berdasarkan seni bina Transformer telah mengubah cara pemprosesan bahasa semula jadi dilakukan. Model ini belajar pada korpora teks sebenar berskala besar melalui latihan yang diselia sendiri, membolehkan perwakilan makna sensitif konteks bagi setiap perkataan dalam urutan yang panjang.
Selain bergantung pada perwakilan terbenam dalam model Transformer, beberapa ketua perhatian dalam model Transformer akan melaksanakan pengkhususan fungsi tertentu, seperti menghuraikan objek langsung kata kerja atau pengubah suai kata nama penjejakan.
Dalam kajian semasa, para penyelidik percaya bahawa transformasi mengikut kepala (pengiraan kontekstual khusus berfungsi yang dilakukan oleh ketua perhatian individu) boleh memberikan tingkap pelengkap kepada pemprosesan bahasa dalam otak. Teori neurocomputational pemprosesan bahasa semula jadi mesti akhirnya menentukan bagaimana makna dibina merentas perkataan.
Seni bina Transformer menyediakan akses eksplisit kepada mekanisme calon untuk mengukur cara makna perkataan lalu sesuai dengan makna perkataan semasa.
Jika ini adalah bahagian penting dalam pemprosesan bahasa manusia, maka transformasi ini harus menyediakan asas yang baik untuk mensimulasikan aktiviti otak manusia semasa pemahaman bahasa semula jadi.
Para penyelidik mengekstrak transformasi daripada model BERT yang dikaji secara meluas dan menggunakan model pengekodan untuk menilai sejauh mana transformasi ini, bersama beberapa keluarga ciri bahasa lain, berprestasi dalam meramal aktiviti otak semasa pemahaman bahasa semula jadi.
Ilustrasi: Membandingkan tiga kelas model bahasa merentas kawasan bahasa kortikal. (Sumber: Kertas)
Penyelidik membandingkan prestasi tiga model bahasa: ciri bahasa klasik, benam perkataan bukan kontekstual (GloVe), dan ciri Transformer kontekstual (BERT).
Ilustrasi: Pilihan lapisan untuk benam dan transformasi. (Sumber: kertas)
연구원들은 변환이 임베딩과 동등하게 수행되고 일반적으로 비문맥 임베딩 및 고전적 구문 주석보다 성능이 뛰어나다는 것을 발견했습니다. 이는 주변 단어에서 추출된 문맥 정보가 매우 풍부하다는 것을 나타냅니다.
사실 모델 초기 계층의 변환은 임베딩 자체보다 뇌 활동의 독특한 차이점을 더 많이 설명합니다. 마지막으로 연구자들은 이러한 변환을 개별 Attention Head가 수행하는 기능별 계산으로 분해합니다.
그림: 머리 두뇌와 의존성 예측 간의 대응. (출처: 논문)
연구원들은 머리 방향의 특정 속성(예: 되돌아보기 거리)이 머리 방향 변환과 피질 음성 귀 사이의 매핑을 결정한다는 것을 발견했습니다. 연구자들은 또한 특정 언어 영역의 경우 특정 언어 종속성을 우선적으로 인코딩하는 머리 방향 변환이 뇌 활동을 더 잘 예측한다는 사실도 발견했습니다.
요약하자면, 이 연구는 인간의 언어 처리를 이해하는 데 새로운 관점을 제공합니다.
논문 링크:https://www.nature.com/articles/s41467-024-49173-5
Atas ialah kandungan terperinci Bagaimanakah otak memproses bahasa? Pasukan Princeton menganalisis model Transformer. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!