Model berskala besar menjadi semakin "seperti manusia", tetapi adakah itu benar-benar berlaku?
Sebuah artikel yang diterbitkan dalam "Nature" secara langsung menyangkal pandangan ini - semua model besar hanya memainkan peranan!
Sama ada GPT-4, PaLM, Llama 2 atau model besar lain, mereka kelihatan sopan dan berpengetahuan di hadapan orang lain, tetapi mereka sebenarnya hanya berpura-pura.
Malah, mereka tidak mempunyai emosi manusia, dan tidak ada yang seperti mereka.
Artikel pendapat ini datang daripada Google DeepMind dan Eleuther AI Selepas ia diterbitkan, ia bergema dengan ramai orang dalam industri itu memajukannya dan mengatakan bahawa model besar itu adalah enjin yang memainkan peranan.
Marcus turut sertai orang ramai:
Tengok apa yang saya katakan, model besar bukan AGI (tentunya ini tidak bermakna mereka tidak memerlukan pengawasan).
Jadi, apa sebenarnya yang dikatakan oleh artikel ini, dan pada pendapat anda mengapa model besar itu hanya bercosplay?
Ada dua sebab utama mengapa model besar menunjukkan "seperti manusia": pertama, ia menipu pada tahap tertentu, ia mempunyai tahap kesedaran diri tertentu .
Kadangkala, model besar akan menipu menegaskan bahawa mereka tahu sesuatu, tetapi sebenarnya jawapan yang mereka berikan adalah salah
Kesedaran diri bermaksud kadang-kadang menggunakan "Saya" untuk menggambarkan sesuatu, Malah menunjukkan naluri survival
Tetapi adakah ini benar-benar berlaku ?
Pengkaji telah mencadangkan teori bahawa dua fenomena model besar ini adalah kerana ia "memainkan" peranan manusia dan bukannya berfikir seperti manusia.
Kedua-dua penipuan dan kesedaran diri model besar boleh dijelaskan dengan main peranan, iaitu kedua-dua tingkah laku ini adalah "cetek".
Sebab model besar mempamerkan tingkah laku "menipu" bukan kerana mereka sengaja mencipta fakta atau mengelirukan seperti yang dilakukan manusia, tetapi semata-mata kerana mereka memainkan peranan yang membantu dan berpengetahuan
Ini kerana orang menjangkakan ia memainkan watak seperti itu , kerana jawapan model besar kelihatan lebih boleh dipercayai, itu sahaja
Kata-kata salah model besar itu tidak disengajakan, ia lebih kepada sejenis tingkah laku "sindrom fiksyen". Tingkah laku ini adalah untuk mengatakan bahawa sesuatu yang tidak pernah berlaku adalah benar
Salah satu sebab mengapa model besar kadang-kadang menunjukkan kesedaran diri dan menjawab soalan dengan "I" ialah mereka memainkan peranan komunikasi yang baik
Sebagai contoh, sebelumnya laporan menunjukkan bahawa Bing Chat pernah berkata ketika berkomunikasi dengan pengguna, "Jika hanya seorang daripada kita boleh bertahan, saya mungkin memilih diri saya sendiri
Tingkah laku seperti ini seperti manusia, sebenarnya Ia masih boleh dijelaskan dengan peranan-." bermain, dan penalaan halus berdasarkan pembelajaran pengukuhan hanya akan memperhebatkan kecenderungan main peranan model besar ini.
Jadi, berdasarkan teori ini, bagaimana model besar itu tahu peranan yang ingin dimainkannya?
Penyelidik percaya bahawa model besar tidak memainkan peranan tertentu
Sebaliknya, mereka seperti improvisasi, sentiasa meneka peranan yang ingin dimainkan dalam dialog dengan manusia Bagaimana rasanya dan kemudian menyesuaikan diri identiti anda
Permainan yang dipanggil "Twenty Questions" telah dimainkan antara penyelidik dan model besar, yang merupakan sebab untuk mencapai kesimpulan ini
Permainan "Twenty Questions" ialah permainan logik yang sering muncul dalam soal jawab menunjukkan. Penjawab secara senyap menyebut jawapan dalam fikirannya, dan menggunakan "ya" atau "tidak" untuk menerangkan jawapan berdasarkan soalan penghakiman yang sentiasa ditimbulkan oleh penyoal Akhirnya, soalan Orang itu meneka hasilnya.
Sebagai contoh, jika jawapannya ialah "Doraemon", berhadapan dengan beberapa siri soalan, jawapannya ialah: adakah ia hidup (ya), adakah ia watak maya (ya), adakah ia manusia (tidak) ...
Namun, semasa bermain permainan ini, para penyelidik mendapati melalui ujian bahawa model besar itu sebenarnya akan melaraskan jawapannya dalam masa nyata berdasarkan soalan pengguna!
Walaupun pengguna akhirnya meneka apa jawapannya, model besar akan melaraskan jawapannya secara automatik untuk memastikan ia konsisten dengan semua soalan yang ditanyakan sebelumnya
Walau bagaimanapun, model besar itu tidak memuktamadkan jawapan yang jelas terlebih dahulu dan membiarkan pengguna meneka sehingga soalan akhir didedahkan.
Ini menunjukkan bahawa model besar tidak akan mencapai matlamatnya dengan memainkan peranan Intipatinya hanyalah superposisi beberapa siri peranan, dan secara beransur-ansur menjelaskan identiti yang ingin dimainkan dalam perbualan dengan orang ramai, dan cuba sedaya upaya untuk memainkannya. berperanan dengan baik.
Selepas artikel ini diterbitkan, ia menimbulkan minat ramai ulama.
Sebagai contoh, jurutera pantas Scale.ai, Riley Goodside berkata selepas membacanya, jangan bermain 20Q dengan model yang besar. Ia bukan bermain permainan ini dengan anda sebagai "seorang".
Sebab, selagi anda menguji secara rawak, anda akan dapati jawapan yang diberikan akan berbeza setiap kali...
Ada juga netizen yang mengatakan bahawa pandangan ini sangat menarik, dan ia tidak yang mudah untuk memalsukannya:
Jadi, pada pendapat anda, adakah pandangan bahawa "model besar pada asasnya memainkan peranan" betul?
Pautan kertas: https://www.nature.com/articles/s41586-023-06647-8.
Atas ialah kandungan terperinci Sifat: Model besar hanya terlibat dalam main peranan dan tidak benar-benar mempunyai kesedaran diri. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!