


The Thought Chain CoT berkembang menjadi Thought Map GoT, dan teknologi kejuruteraan segera yang lebih baik daripada Thought Tree telah dilahirkan.
Untuk model bahasa besar (LLM) untuk menggunakan sepenuhnya keupayaan mereka, reka bentuk segera yang berkesan adalah penting Atas sebab ini, bidang kejuruteraan segera yang baru muncul.
Di antara pelbagai penyelesaian reka bentuk segera, Chain of Thinking (CoT) telah menarik perhatian ramai penyelidik dan pengguna dengan keupayaan penaakulan yang kuat Berdasarkan CoT-SC yang dipertingkatkan dan Tree of Thinking (ToT), ia juga telah mendapat Banyak perhatian.
Baru-baru ini, pasukan penyelidik dari ETH Zurich, Cledar dan Universiti Teknologi Warsaw mencadangkan idea selanjutnya: Maps of Mind (GoT). Keupayaan untuk berfikir dari rantai ke pokok kepada graf dan membina proses penaakulan untuk LLM telah dipertingkatkan secara berterusan, dan penyelidik juga telah membuktikannya melalui eksperimen. Mereka juga mengeluarkan pelaksanaan rangka kerja GoT mereka sendiri.

Kertas penyelidikan: https://arxiv.org/pdf/2308.09687v2.pdf
Pelaksanaan rasmi: https://github.com/spcl/graph-of-thoughts
Gambaran keseluruhan kertas
Model bahasa yang besar menjadi teknologi yang dominan dalam dunia kecerdasan buatan. Model yang telah berkembang pesat dalam beberapa tahun kebelakangan ini adalah berdasarkan pada varian Transformer dekoder sahaja, seperti GPT, PaLM atau LLaMA. Apabila menyelesaikan tugasan LLM yang berbeza, reka bentuk kejuruteraan segera ialah kaedah yang boleh menggunakan sumber dengan cekap. Ringkasnya, penerangan tentang tugasan disertakan dalam input yang dihantar ke LLM. Jika tugas itu boleh diterangkan dalam bentuk yang sesuai, LLM boleh menyelesaikannya dengan bantuan mekanisme berasaskan token autoregresifnya untuk menjana teks. Gesaan sedemikian mungkin mengandungi contoh tugasan dengan jawapan (reka bentuk gesaan beberapa pukulan, juga dikenali sebagai pembelajaran kontekstual (ICL)), atau gesaan tersebut mungkin tidak mengandungi tugasan contoh sama sekali (reka bentuk gesaan sifar tembakan telah ditunjukkan dalam beberapa tahun kebelakangan ini). bahawa, Mekanisme ini boleh digunakan untuk menyelesaikan pelbagai jenis tugasan yang melibatkan matematik, akal fikiran, atau penaakulan simbolik Chain of Thought (CoT) ialah kaedah untuk mereka bentuk gesaan, iaitu, sebagai tambahan kepada input dan output. tugasan, gesaan juga mempunyai input dan output Ia juga termasuk langkah perantaraan penaakulan (pemikiran pertengahan Penyelidikan menunjukkan bahawa CoT boleh meningkatkan keupayaan LLM, membolehkannya menyelesaikan beberapa masalah yang sukar tanpa sebarang kemas kini model penyelidik juga telah menambah baik CoT dan mencadangkan menggunakan CoT untuk merealisasikan diri mereka kaedah Konsisten (CoT-SC); ), yang dilakukan melalui pepohon ) untuk memodelkan proses penaakulan LLM Ini membolehkan model menggunakan laluan pemikiran yang berbeza dan boleh memberikan keupayaan baru, seperti menjejaki proses penaakulan berdasarkan keputusan yang buruk ketegasan pada proses pemikiran. Struktur pokok akan sangat mengehadkan keupayaan penaakulan segera Untuk butiran lanjut, sila rujuk artikel di laman web ini"Berfikir, berfikir, berfikir tanpa henti, Thinking Tree ToT "Military Training" LLM"
.ETH Zurich, Cledar Pasukan penyelidik dari Universiti Teknologi Warsaw ini percaya bahawa jika pemikiran LLM boleh dibina ke dalam struktur graf yang sewenang-wenangnya, ia boleh membawa peningkatan yang ketara kepada keupayaan prompt. Mereka berkata idea ini diilhamkan oleh pelbagai fenomena , seperti kaedah penaakulan manusia, struktur otak dan kaedah pelaksanaan algoritma
Apabila berfikir, manusia tidak akan hanya mengikuti satu rantaian pemikiran seperti CoT, atau mencuba pelbagai laluan berbeza seperti ToT, tetapi akan membentuk satu rantaian pemikiran yang lebih kompleks. seseorang mungkin terlebih dahulu meneroka satu rantaian pemikiran, kemudian berundur dan meneroka yang lain, dan kemudian mungkin menyedari bahawa idea dari rantaian sebelumnya boleh digabungkan dengan rantaian semasa untuk belajar daripada satu sama lain dan mendapatkan penyelesaian yang baru otak membentuk rangkaian kompleks yang mempamerkan corak seperti graf, seperti corak kitaran Perlaksanaan algoritma juga mendedahkan corak rangkaian, yang selalunya boleh diwakili sebagai graf akiklik terarah -transformasi yang didayakan digunakan dalam pemikiran LLM, ia dijangka mewujudkan kaedah yang berkuasa untuk mereka bentuk gesaan, tetapi transformasi ini tidak boleh dinyatakan secara semula jadi melalui CoT atau ToT
Kemudian mereka memerhatikan Kepada: Jika proses penaakulan LLM dimodelkan sebagai a graf, maka ini dan banyak lagi transformasi pemikiran boleh direalisasikan secara semula jadi Berdasarkan pemerhatian ini, mereka mencadangkan GoT/Graf Pemikiran, yang boleh dilaksanakan melalui rangkaian untuk meningkatkan keupayaan LLM.
Dalam GoT, pemikiran LLM dimodelkan sebagai bucu, dan kebergantungan antara bucu dimodelkan sebagai tepi. Menggunakan GoT, idea arbitrari boleh diagregatkan dengan membina bucu dengan lebih daripada satu tepi input. Secara keseluruhannya, kaedah pengabstrakan graf yang digunakan oleh GoT boleh menyamaratakan CoT dan ToT dengan lancar kepada model pemikiran yang lebih kompleks, dan proses ini tidak memerlukan pengemaskinian model.
Walau bagaimanapun, terdapat beberapa cabaran reka bentuk yang perlu diselesaikan untuk benar-benar melaksanakan GoT. Sebagai contoh, apakah struktur graf terbaik untuk tugasan yang berbeza? Apakah pendekatan terbaik untuk pemikiran konvergen untuk memaksimumkan ketepatan dan meminimumkan kos?
Untuk menjawab soalan ini dan banyak lagi, penyelidik ini mereka bentuk seni bina modular untuk melaksanakan GoT. Reka bentuk mempunyai dua sorotan utama.
Pertama, ia boleh mencapai kawalan halus setiap pemikiran. Ini memberikan pengguna kawalan penuh ke atas perbualan dengan LLM dan penggunaan transformasi pemikiran lanjutan, seperti menggabungkan dua pemikiran yang paling menjanjikan daripada inferens berterusan untuk mendapatkan yang baharu.
Yang kedua ialah seni bina ini direka bentuk dengan mengambil kira skalabiliti - ia boleh diperluas dengan lancar untuk transformasi pemikiran baharu, mod penaakulan (iaitu peta minda) dan model LLM. Ini membolehkan pengguna menggunakan GoT untuk membuat prototaip dengan pantas idea reka bentuk baharu untuk segera semasa bereksperimen dengan model berbeza seperti GPT-3.5, GPT-4 atau Llama-2.
Para penyelidik juga menunjukkan beberapa kes penggunaan GoT (isih, pengiraan kata kunci ringkasan, operasi set, penggabungan dokumen), dan mereka juga memperincikan cara melaksanakannya menggunakan paradigma berasaskan graf. Mereka secara eksperimen menilai GoT, menunjukkan kelebihannya berbanding kaedah terkini yang lain.
Penyelidik mengatakan bahawa secara keseluruhan, GoT amat sesuai untuk tugasan yang secara semula jadi boleh dipecahkan kepada subtugas yang lebih kecil, dan subtugas ini boleh diselesaikan secara berasingan dan kemudian digabungkan menjadi penyelesaian akhir. Dalam hal ini, GoT berprestasi lebih baik daripada penyelesaian lain Sebagai contoh, pada tugas pengisihan, GoT adalah lebih baik daripada CoT dan ToT masing-masing sebanyak 70% dan 62%, manakala kosnya lebih 31% lebih rendah daripada ToT.
Jadual 1 memberikan perbandingan kualitatif antara GoT dan penyelesaian reka bentuk segera yang lain. GoT ialah satu-satunya penyelesaian yang boleh melaksanakan sebarang transformasi pemikiran berasaskan graf (seperti pengagregatan) dalam masa yang pantas, sekali gus merangkumi semua penyelesaian terdahulu.

Mereka juga mempunyai sumbangan lain, iaitu mencadangkan indeks penilaian baharu-jumlah pemikiran, yang boleh digunakan untuk Menilai strategi reka bentuk segera . Matlamat menggunakan metrik ini, kata para penyelidik, adalah untuk lebih memahami perbezaan antara pilihan reka bentuk segera.
Untuk sesuatu pemikiran v, kapasiti v merujuk kepada bilangan pemikiran LLM berdasarkan mana pengguna boleh mendapatkan v menggunakan tepi terarah. Secara intuitif, ini adalah semua idea LLM yang dijangka menyumbang kepada v.
Penulis telah menunjukkan melalui penyelidikan bahawa dengan menyepadukan teknologi transformasi pemikiran seperti pengagregatan, GoT boleh menjadikan kapasiti berfikir jauh lebih besar daripada penyelesaian lain.
GoT Framework
Berikut ialah pengenalan terperinci kepada rangka kerja GoT. Gambarajah skematik ditunjukkan dalam Rajah 1, yang juga menyediakan gambarajah skematik strategi reka bentuk segera yang lain.

Dalam bentuk matematik, GoT boleh dimodelkan sebagai tuple (G, T, E, R), di mana G ialah proses inferens LLM ( i.e. semua pemikiran LLM dalam konteks dan hubungannya), T ialah kemungkinan transformasi pemikiran, E ialah fungsi penilai yang digunakan untuk mendapatkan skor pemikiran, dan R ialah fungsi pemeringkatan yang digunakan untuk memilih pemikiran yang paling relevan.
Proses inferens
Di sini, proses inferens dimodelkan sebagai graf terarah G = (V, E), dengan V ialah A set bucu, E ⊆ V × V ialah set tepi. G diarahkan, jadi tepi ialah subset bagi pasangan bucu tersusun E ⊆ V × V . Puncak mengandungi penyelesaian kepada masalah semasa, sama ada masalah awal, pertengahan atau akhir. Bentuk sebenar pemikiran ini bergantung pada kes penggunaan; ia mungkin sekeping teks (dalam tugasan menulis) atau urutan nilai (dalam tugas pengisihan). Tepi terarah (t_1, t_2) mewakili cara pemikiran t_2 dibina menggunakan t_1 sebagai "input langsung", iaitu dengan secara eksplisit mengarahkan LLM untuk menggunakan t_1 untuk menjana t_2.
Dalam sesetengah kes penggunaan, nod graf tergolong dalam kategori yang berbeza. Contohnya, dalam tugasan menulis, beberapa bucu memodelkan rancangan untuk menulis segmen teks, manakala nod lain memodelkan segmen teks sebenar. Dalam kes ini, GoT menggunakan graf heterogen G = (V, E, c) untuk memodelkan inferens LLM, dengan c memetakan bucu V ke kelas C masing-masing (dalam kes di atas, C = {plan, par} ). Dengan cara ini, mana-mana bucu v boleh memodelkan aspek penaakulan yang berbeza.
So G dikaitkan dengan proses inferens LLM. Untuk memudahkan proses ini, pengguna boleh menggunakan Anjakan Pemikiran pada G. Contoh transformasi jenis ini: gabungkan pemikiran dengan skor tertinggi setakat ini kepada pemikiran baharu. Satu lagi contoh ialah menggelungkan pemikiran untuk menguatkannya. Ambil perhatian bahawa transformasi ini memanjangkan set transformasi yang tersedia dalam CoT, CoT-SC atau ToT dengan ketat.
PERUBAHAN BERFIKIR
Terima kasih kepada penggunaan model berasaskan graf untuk penaakulan, GoT boleh mencapai transformasi pemikiran baharu. Penyelidik memanggil ini transformasi yang didayakan graf. Sebagai contoh, dalam tugas menulis berbilang artikel input boleh digabungkan menjadi ringkasan yang koheren. Apabila mengisih, berbilang subarray berangka yang diisih boleh digabungkan menjadi tatasusunan yang diisih terakhir. Rajah 2 memberikan contoh pengagregatan dan penjanaan.

Secara matematik, setiap transformasi tersebut boleh dimodelkan sebagai T (G, p_θ), di mana G = (V, E ) ialah graf yang mencerminkan keadaan inferens semasa, dan p_θ ialah LLM yang digunakan. T biasanya mengubah suai G dengan menambah bucu baharu dan tepi masuknya. Kemudian kita mempunyai G′ = T (G, p_θ) = (V′, E′), di mana V′ = (V ∪ {V^+}) {V^−} dan E′ = (E ∪ {E^+ } ) {E^−}. V^+ dan E^+ ialah bucu dan tepi baharu yang disuntik ke dalam G. Mereka memodelkan pemikiran baharu dan kebergantungan masing-masing.
Untuk memaksimumkan kuasa ekspresif GoT, pengguna juga boleh memadamkan pemikiran dengan menyatakan bucu dan tepi yang sepadan untuk dipadamkan (masing-masing V^− dan E^−). Di sini, adalah menjadi tanggungjawab pengguna untuk memastikan set V^+, E^+, V^−, dan E^− mempunyai transformasi yang konsisten (contohnya, pengguna tidak akan cuba memadam bucu yang tidak wujud). Ini membolehkan penyepaduan lancar bagi penyelesaian segera, di mana pengguna boleh mengalih keluar bahagian alasan yang tidak dipertingkatkan untuk menjimatkan ruang dalam konteks.
Bentuk khusus T dan cara ia mempengaruhi G bergantung pada transformasi tertentu. Yang berikut mula-mula akan memperkenalkan secara terperinci transformasi pemikiran yang didayakan oleh graf utama, dan kemudian menerangkan cara GoT memasukkan transformasi penyelesaian sebelumnya. Melainkan dinyatakan sebaliknya, V^− = E^− = ∅.
Transformasi Pengagregatan: Pengguna boleh menggunakan GoT untuk mengagregatkan sebarang pemikiran ke dalam pemikiran baharu untuk belajar daripada kekuatan masing-masing. Berikut ialah lihat bentuk asas yang hanya mencipta bucu baharu: V^+ = {v^+} dan E^+ = {(v_1, v^+), ..., (v_k, v^+)}, di mana v_1 , ..., v_k ialah k pemikiran yang digabungkan. Secara umumnya, ini membolehkan pengagregatan laluan penaakulan, iaitu rantaian pemikiran yang lebih panjang dan bukannya pemikiran individu sahaja. Menggunakan model graf, transformasi pengagregatan boleh dilaksanakan dengan mudah: dengan menambah tepi keluar daripada bucu v_1, ..., v_k yang memodelkan pemikiran terakhir dalam beberapa rantai, untuk menunjuk kepada satu pemikiran v^+ yang menggabungkan rantai ini.
Memurnikan transformasi: Satu lagi transformasi pemikiran ialah memperhalusi pemikiran semasa v dengan mengubah suai kandungan: V^+ = {} dan E^+ = {(v, v)}. Gelung dalam rajah ini mewakili versi pemikiran berulang yang mempunyai hubungan yang sama seperti pemikiran asal.
Jana transformasi: Akhirnya, pengguna juga boleh menjana satu atau lebih pemikiran baharu berdasarkan pemikiran tunggal sedia ada v. Termasuk dalam kategori ini adalah langkah-langkah penaakulan yang serupa daripada skim terdahulu seperti ToT atau CoT-SC. Secara matematik, di sana Tujuan berfikir pemarkahan adalah untuk memahami sama ada penyelesaian semasa adalah cukup baik. Skor dimodelkan sebagai fungsi umum E (v, G, p_θ), di mana v ialah pemikiran yang dinilai. Untuk menjadikan E seumum mungkin, keseluruhan proses penaakulan (G) juga digunakan dalam E, kerana dalam beberapa senario penilaian skor mungkin berkaitan dengan pemikiran lain.

Keupayaan seni bina dan pengembangan sistem
GoT terdiri daripada satu set modul interaktif, lihat Rajah 3 (bahagian biru). Modul ini ialah Prompter (menyediakan mesej untuk LLM), Parser (parser, mengekstrak maklumat dalam balasan LLM), Modul pemarkahan (mengesahkan balasan dan markah LLM), Pengawal (pengawal, menyelaraskan keseluruhan proses penaakulan dan memutuskan cara untuk meneruskan penaakulan). Pengawal mengandungi dua komponen penting lain: graf operasi (GoO) dan keadaan penaakulan graf (GRS). GoO ialah struktur statik yang menentukan penguraian graf untuk tugasan tertentu, iaitu ia menentukan transformasi yang digunakan pada pemikiran LLM dan susunan serta kebergantungannya. GRS ialah struktur dinamik yang mengekalkan keadaan proses penaakulan LLM yang sedang berjalan (sejarah pemikirannya dan keadaannya).Gunakan contoh kes
Pengkaji menerangkan beberapa kes penggunaan GoT , Operasi set, pengiraan kata kunci, penggabungan dokumen Rajah 4 di bawah ialah contoh penguraian graf dalam kes penggunaan pengisihan GoT. Kami tidak akan memperkenalkan kes penggunaan secara terperinci di sini, sila rujuk kertas asal untuk butiran.


Latency versus Capacity Tradeoff#🎜🎜🎜##🎜🎜 pertukaran antara (bilangan lompatan untuk mencapai pemikiran akhir yang diberikan dalam peta minda) dan kapasiti juga sangat penting, dan penyelidik menunjukkan bahawa GoT juga mengatasi prestasi pantas sebelumnya pada pertukaran ini. Kertas ini mentakrifkan metrik baharu - kapasiti pemikiran, iaitu bilangan pemikiran LLM terdahulu yang boleh mempengaruhi pemikiran tertentu t. Secara matematik, kapasiti pemikiran t ialah bilangan pemikiran yang mempunyai laluan antara t dan t dalam peta pemikiran. Para penyelidik menganggap bahawa kos mengeluarkan satu pemikiran ialah O (1) dan menetapkan jumlah kos setiap penyelesaian segera sebagai Θ(n).
Struktur pelbagai pelan adalah seperti berikut. CoT-SC terdiri daripada k rantai bebas yang berasal dari satu pemikiran permulaan. ToT ialah pokok k-ary yang lengkap. Dalam GoT, pokok k-ary yang lengkap ditambah pada nod daunnya, dengan pokok k-ary "cermin" - saiznya sama tetapi bahagian tepinya diterbalikkan.
Lihat Jadual 2 untuk analisis terperinci. CoT mempunyai kapasiti yang lebih besar, sehingga N, tetapi ia juga mempunyai kos kependaman N yang tinggi. CoT-SC mengurangkan kependaman dengan faktor k (sepadan dengan faktor percabangannya), tetapi pada masa yang sama kapasitinya dikurangkan dengan faktor k. ToT mempunyai kependaman log_k N, tetapi kapasiti juga rendah. GoT ialah satu-satunya penyelesaian yang boleh mencapai kependaman rendah log_k N dan kapasiti tinggi N. GoT dapat melakukan ini kerana ia menggunakan pengagregatan pemikiran, membolehkannya mencapai pemikiran akhir daripada mana-mana pemikiran perantaraan lain dalam penguraian graf.

Para penyelidik menunjukkan kelebihan lain melalui eksperimen GoT Perbandingan utama adalah antara GoT dan ToT, kerana prestasi ToT sudah lebih baik daripada penyelesaian lain. Sudah tentu, mereka masih melakukan beberapa eksperimen dengan IO, CoT dan CoT-SC.
Rajah 5 (isih), 6 (set persimpangan), 7 (pengiraan kata kunci), dan 8 (pencantuman dokumen) menunjukkan keputusan eksperimen.



Atas ialah kandungan terperinci The Thought Chain CoT berkembang menjadi Thought Map GoT, dan teknologi kejuruteraan segera yang lebih baik daripada Thought Tree telah dilahirkan.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Ia juga merupakan video Tusheng, tetapi PaintsUndo telah mengambil laluan yang berbeza. Pengarang ControlNet LvminZhang mula hidup semula! Kali ini saya menyasarkan bidang lukisan. Projek baharu PaintsUndo telah menerima 1.4kstar (masih meningkat secara menggila) tidak lama selepas ia dilancarkan. Alamat projek: https://github.com/lllyasviel/Paints-UNDO Melalui projek ini, pengguna memasukkan imej statik, dan PaintsUndo secara automatik boleh membantu anda menjana video keseluruhan proses mengecat, daripada draf baris hingga produk siap . Semasa proses lukisan, perubahan garisan adalah menakjubkan Hasil akhir video sangat serupa dengan imej asal: Mari kita lihat lukisan lengkap.

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Semua pengarang kertas kerja ini adalah daripada pasukan guru Zhang Lingming di Universiti Illinois di Urbana-Champaign (UIUC), termasuk: Steven Code repair; pelajar kedoktoran tahun empat, penyelidik

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dalam proses pembangunan kecerdasan buatan, kawalan dan bimbingan model bahasa besar (LLM) sentiasa menjadi salah satu cabaran utama, bertujuan untuk memastikan model ini adalah kedua-duanya. berkuasa dan selamat untuk masyarakat manusia. Usaha awal tertumpu kepada kaedah pembelajaran pengukuhan melalui maklum balas manusia (RL

sorakan! Bagaimana rasanya apabila perbincangan kertas adalah perkataan? Baru-baru ini, pelajar di Universiti Stanford mencipta alphaXiv, forum perbincangan terbuka untuk kertas arXiv yang membenarkan soalan dan ulasan disiarkan terus pada mana-mana kertas arXiv. Pautan laman web: https://alphaxiv.org/ Malah, tidak perlu melawati tapak web ini secara khusus. Hanya tukar arXiv dalam mana-mana URL kepada alphaXiv untuk terus membuka kertas yang sepadan di forum alphaXiv: anda boleh mencari perenggan dengan tepat dalam. kertas itu, Ayat: Dalam ruang perbincangan di sebelah kanan, pengguna boleh menyiarkan soalan untuk bertanya kepada pengarang tentang idea dan butiran kertas tersebut Sebagai contoh, mereka juga boleh mengulas kandungan kertas tersebut, seperti: "Diberikan kepada

Baru-baru ini, Hipotesis Riemann, yang dikenali sebagai salah satu daripada tujuh masalah utama milenium, telah mencapai kejayaan baharu. Hipotesis Riemann ialah masalah yang tidak dapat diselesaikan yang sangat penting dalam matematik, berkaitan dengan sifat tepat taburan nombor perdana (nombor perdana ialah nombor yang hanya boleh dibahagikan dengan 1 dan dirinya sendiri, dan ia memainkan peranan asas dalam teori nombor). Dalam kesusasteraan matematik hari ini, terdapat lebih daripada seribu proposisi matematik berdasarkan penubuhan Hipotesis Riemann (atau bentuk umumnya). Dalam erti kata lain, sebaik sahaja Hipotesis Riemann dan bentuk umumnya dibuktikan, lebih daripada seribu proposisi ini akan ditetapkan sebagai teorem, yang akan memberi kesan yang mendalam terhadap bidang matematik dan jika Hipotesis Riemann terbukti salah, maka antara cadangan ini sebahagian daripadanya juga akan kehilangan keberkesanannya. Kejayaan baharu datang daripada profesor matematik MIT Larry Guth dan Universiti Oxford

Tunjukkan rantai sebab kepada LLM dan ia mempelajari aksiom. AI sudah pun membantu ahli matematik dan saintis menjalankan penyelidikan Contohnya, ahli matematik terkenal Terence Tao telah berulang kali berkongsi pengalaman penyelidikan dan penerokaannya dengan bantuan alatan AI seperti GPT. Untuk AI bersaing dalam bidang ini, keupayaan penaakulan sebab yang kukuh dan boleh dipercayai adalah penting. Penyelidikan yang akan diperkenalkan dalam artikel ini mendapati bahawa model Transformer yang dilatih mengenai demonstrasi aksiom transitiviti sebab pada graf kecil boleh digeneralisasikan kepada aksiom transitiviti pada graf besar. Dalam erti kata lain, jika Transformer belajar untuk melakukan penaakulan sebab yang mudah, ia boleh digunakan untuk penaakulan sebab yang lebih kompleks. Rangka kerja latihan aksiomatik yang dicadangkan oleh pasukan adalah paradigma baharu untuk pembelajaran penaakulan sebab berdasarkan data pasif, dengan hanya demonstrasi

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Pengenalan Dalam beberapa tahun kebelakangan ini, aplikasi model bahasa besar multimodal (MLLM) dalam pelbagai bidang telah mencapai kejayaan yang luar biasa. Walau bagaimanapun, sebagai model asas untuk banyak tugas hiliran, MLLM semasa terdiri daripada rangkaian Transformer yang terkenal, yang
