Rumah > Peranti teknologi > AI > Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

WBOY
Lepaskan: 2023-06-05 18:10:18
ke hadapan
1130 orang telah melayarinya

Semuanya bermula dengan kemunculan ChatGPT...

Komuniti NLP yang dahulunya aman ketakutan dengan kedatangan "raksasa" yang tiba-tiba ini! Semalaman, seluruh bulatan NLP telah mengalami perubahan yang besar. Industri telah menyusuli dengan cepat, modal telah melonjak, dan ia telah memulakan jalan mereplikasi ChatGPT tiba-tiba jatuh ke dalam keadaan kekeliruan... Semua orang perlahan-lahan mula percaya bahawa "NLP telah diselesaikan!"

Namun, dilihat dari kalangan akademik NLP yang masih aktif baru-baru ini dan aliran kerja cemerlang yang tidak berkesudahan, ini bukanlah kes, malah boleh dikatakan "NLP baru sahaja menjadi nyata!"

Dalam beberapa bulan lalu, Universiti Beihang, Mila, Universiti Sains dan Teknologi Hong Kong, ETH Zurich (ETH ), Universiti Waterloo, Kolej Dartmouth, Selepas penyelidikan yang sistematik dan komprehensif, banyak institusi seperti Universiti Sheffield dan Akademi Sains China menghasilkan kertas setebal 110 halaman, yang menghuraikan secara sistematik rantaian teknologi dalam era pasca-ChatGPT: interaksi.

Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT


  • Alamat kertas : https://arxiv.org/abs/2305.13246
  • Sumber projek: https://github.com/InteractiveNLP-Team
Berbeza daripada "human-in-the-loop (HITL)" tradisional, "pembantu penulis" dan jenis interaksi lain, interaksi yang dibincangkan dalam artikel ini mempunyai lebih tinggi dan lebih komprehensif perspektif:

    Kepada industri: Jika model besar mempunyai masalah yang sukar untuk diselesaikan seperti fakta dan ketepatan masa, bolehkah ChatGPT+X menyelesaikannya? Walaupun seperti Pemalam ChatGPT, biarkan ia berinteraksi dengan alatan untuk membantu kami menempah tiket, memesan makanan dan melukis gambar dalam satu langkah! Dalam erti kata lain, kita boleh mengurangkan beberapa batasan model besar semasa melalui beberapa rangka kerja teknikal yang sistematik.


  1. Kepada akademia: Apakah AGI sebenar? Malah, seawal tahun 2020, Yoshua Bengio, salah satu daripada tiga gergasi pembelajaran mendalam dan pemenang Anugerah Turing, menerangkan pelan tindakan untuk model bahasa interaktif [1]: model bahasa yang boleh berinteraksi dengan persekitaran dan juga berinteraksi secara sosial. dengan agen lain Hanya dengan cara ini kita boleh mempunyai perwakilan semantik bahasa yang paling komprehensif. Pada tahap tertentu, interaksi dengan alam sekitar dan manusia mewujudkan kecerdasan manusia.
Oleh itu, membiarkan model bahasa (LM) berinteraksi dengan entiti luar dan dirinya bukan sahaja boleh membantu merapatkan kelemahan yang wujud dalam model besar, tetapi juga mungkin merupakan jalan utama untuk AGI Ideal untuk pencapaian penting!

Apakah itu interaksi?

Sebenarnya konsep “interaksi” tidak dibayangkan oleh pengarang. Sejak kemunculan ChatGPT, banyak kertas kerja telah diterbitkan mengenai isu baharu dalam dunia NLP, seperti:

  1. Pembelajaran Alat dengan Model Asas menerangkan cara model bahasa boleh menggunakan alatan untuk menaakul atau melaksanakan operasi dunia sebenar [2]; : Masalah , Kaedah, dan Peluang menerangkan cara menggunakan model bahasa untuk melaksanakan pembuatan keputusan [3]; 4];
  2. Model Bahasa Ditambah: Tinjauan menerangkan cara menggunakan model bahasa yang dipertingkatkan seperti Rantaian Pemikiran dan penggunaan Alat, dan menunjukkan model Bahasa menggunakan alatan yang boleh mempunyai kesan pada dunia luar (iaitu bertindak) [5];
  3. Sparks of Artificial General Intelligence: Percubaan awal dengan GPT-4 menerangkan cara menggunakan GPT- 4 Melakukan pelbagai jenis tugas, termasuk kes-kes interaksi dengan manusia, persekitaran, alatan, dan lain-lain [6].
  4. Dapat dilihat bahawa tumpuan komuniti akademik NLP telah beransur-ansur beralih daripada "cara membina model" kepada "cara membina rangka kerja", iaitu, menggabungkan lebih banyak entiti ke dalam model bahasa Semasa proses latihan dan inferens. Contoh yang paling tipikal ialah Pembelajaran Pengukuhan daripada Maklum Balas Manusia (RLHF) yang terkenal Prinsip asasnya ialah membiarkan model bahasa belajar daripada interaksi dengan manusia (maklum balas) [7].
  5. Jadi boleh dikatakan bahawa ciri "interaksi" adalah salah satu laluan pembangunan teknikal paling arus perdana untuk NLP selepas ChatGPT! Kertas kerja pengarang mentakrifkan dan menyahbina secara sistematik "NLP interaktif" buat pertama kali, dan terutamanya berdasarkan dimensi objek interaktif, membincangkan kelebihan dan kekurangan pelbagai penyelesaian teknikal dan pertimbangan aplikasi selengkap mungkin, termasuk:

LM berinteraksi dengan manusia untuk lebih memahami dan memenuhi keperluan pengguna, respons yang diperibadikan dan penjajaran dengan nilai kemanusiaan ), dan menambah baik keseluruhan pengalaman pengguna;

Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

LM berinteraksi dengan pangkalan pengetahuan untuk memperkayakan pengetahuan fakta yang dinyatakan dalam bahasa, meningkatkan perkaitan latar belakang pengetahuan bagi respons dan menggunakan maklumat luaran secara dinamik untuk menghasilkan Respons yang lebih tepat;

  1. LM berinteraksi dengan model dan alatan untuk mengurai dan menyelesaikan tugasan penaakulan yang kompleks dengan berkesan, menggunakan pengetahuan khusus untuk mengendalikan subtugas tertentu, dan menggalakkan kemunculan tingkah laku sosial ejen; >
  2. LM berinteraksi dengan alam sekitar untuk mempelajari asas bahasa dan mengendalikan tugasan yang terkandung secara berkesan yang berkaitan dengan pemerhatian alam sekitar seperti penaakulan, perancangan dan membuat keputusan .
  3. Oleh itu, dalam kerangka interaktif, model bahasa bukan lagi model bahasa itu sendiri, tetapi model yang boleh "diperhatikan" dan "dilakonkan" , berasaskan bahasa. ejen yang boleh "dapat maklum balas".
  4. Berinteraksi dengan objek, pengarang memanggilnya "XXX-in-the-loop", menunjukkan bahawa objek ini mengambil bahagian dalam proses latihan model bahasa atau inferens, dan berdasarkan Satu bentuk lata, gelung, maklum balas atau lelaran terlibat.
  5. Berinteraksi dengan orang lain

Biarkan model bahasa berinteraksi dengan orang Interaksi boleh dibahagikan kepada tiga cara:


Gunakan gesaan untuk berkomunikasiApa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

Gunakan maklum balas untuk belajar

    Gunakan konfigurasi untuk melaraskan
  1. Selain itu, untuk memastikan penggunaan berskala, model atau program sering digunakan untuk mensimulasikan tingkah laku atau pilihan manusia, yang adalah, simulasi daripada kajian sekolah menengah manusia.
  2. Secara umumnya, masalah teras yang perlu diselesaikan dalam interaksi manusia ialah penjajaran, iaitu bagaimana untuk menjadikan tindak balas model bahasa lebih selaras dengan keperluan pengguna dan banyak lagi. membantu. Ia tidak berbahaya dan berasas, membolehkan pengguna mendapat pengalaman pengguna yang lebih baik.

    "Berkomunikasi menggunakan gesaan" terutamanya tertumpu pada sifat interaksi masa nyata dan berterusan, iaitu, ia menekankan sifat berterusan pelbagai pusingan dialog. Ini selaras dengan idea AI Perbualan [8]. Iaitu, melalui beberapa pusingan dialog, biarkan pengguna terus bertanya, supaya tindak balas model bahasa perlahan-lahan sejajar dengan keutamaan pengguna semasa dialog. Pendekatan ini biasanya tidak memerlukan pelarasan parameter model semasa interaksi.

    "Belajar menggunakan maklum balas" ialah cara penjajaran utama pada masa ini, iaitu membenarkan pengguna memberi maklum balas kepada respons model bahasa ini boleh menjadi "baik/buruk". yang menerangkan keutamaan ” anotasi juga boleh menjadi maklum balas yang lebih terperinci dalam bentuk bahasa semula jadi. Model perlu dilatih untuk membuat maklum balas ini setinggi mungkin. Contoh biasa ialah RLHF [7] yang digunakan oleh InstructGPT Ia mula-mula menggunakan data maklum balas keutamaan berlabel pengguna untuk respons model untuk melatih model ganjaran, dan kemudian menggunakan model ganjaran ini untuk melatih model bahasa dengan algoritma RL tertentu untuk memaksimumkan ganjaran. (seperti yang ditunjukkan di bawah) ).

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Melatih model bahasa untuk mengikuti arahan dengan maklum balas manusia [7]

    "Gunakan konfigurasi untuk melaraskan" ialah kaedah interaksi khas yang membolehkan pengguna melaraskan secara langsung hiperparameter model bahasa (seperti suhu), atau mod lata model bahasa, dsb. Contoh biasa ialah Rangkaian AI Google [9]. Model bahasa dengan gesaan pratetap yang berbeza disambungkan antara satu sama lain untuk membentuk rantaian penaakulan untuk memproses tugasan yang diperkemas. Pengguna boleh melaraskan kaedah sambungan nod ini melalui seret dan lepas UI.

    "Belajar daripada simulasi manusia" boleh menggalakkan penggunaan berskala besar bagi tiga kaedah di atas, kerana terutamanya dalam proses latihan, menggunakan pengguna sebenar adalah tidak realistik. Sebagai contoh, RLHF biasanya perlu menggunakan model ganjaran untuk mensimulasikan pilihan pengguna. Contoh lain ialah ITG Microsoft Research [10], yang menggunakan model oracle untuk mensimulasikan tingkah laku penyuntingan pengguna.

    Baru-baru ini, Profesor Stanford Percy Liang dan yang lain telah membina skema penilaian yang sangat sistematik untuk interaksi Manusia-LM: Menilai Interaksi Model Bahasa Manusia [11], pembaca yang berminat boleh Rujuk kertas ini atau teks asal.

    Berinteraksi dengan pangkalan pengetahuan

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Terdapat tiga langkah untuk model bahasa berinteraksi dengan asas pengetahuan:

    1. Tentukan sumber ilmu tambahan: Sumber Ilmu
    2. Mendapatkan kembali pengetahuan: Mendapatkan Pengetahuan
    3. Gunakan pengetahuan untuk meningkatkan: Sila rujuk bahagian Gabungan Mesej Interaksi kertas ini untuk butirannya, dan saya tidak akan memperkenalkannya di sini.

    Secara umumnya, berinteraksi dengan pangkalan pengetahuan boleh mengurangkan "halusinasi" model bahasa, iaitu, meningkatkan fakta, ketepatan, dan lain-lain outputnya juga boleh membantu meningkatkan ketepatan masa model bahasa, membantu menambah pengetahuan dan keupayaan model bahasa (seperti yang ditunjukkan di bawah), dsb.

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    MineDojo [16]: Apabila ejen model bahasa menemui tugas yang tidak diketahui, ia boleh belajar daripada asas pengetahuan Cari bahan kajian, dan kemudian selesaikan tugasan ini dengan bantuan bahan.

    "Sumber Pengetahuan" terbahagi kepada dua jenis, satu pengetahuan korpus tertutup (Corpus Knowledge), seperti WikiText, dsb.[15]; ialah pengetahuan rangkaian terbuka (Internet Knowledge), seperti pengetahuan yang boleh diperolehi menggunakan enjin carian [14].

    “Pencarian Pengetahuan” dibahagikan kepada empat kaedah:

    1. Perwakilan jarang berasaskan bahasa dan pemadanan leksikal perolehan jarang (pendapatan jarang): seperti padanan n-gram, BM25, dsb.
    2. Pendapatan padat (pendapatan padat) berdasarkan perwakilan padat berasaskan bahasa dan padanan semantik: seperti menggunakan model menara tunggal atau dwi-menara sebagai retriever, dsb.
    3. Berdasarkan carian generatif: Ia adalah kaedah yang agak baharu. Kerja yang mewakili ialah Indeks Carian Boleh Dibezakan oleh Google Tay Yi et al. [12], yang menjimatkan pengetahuan dalam parameter. model bahasa, selepas memberikan pertanyaan, keluarkan secara langsung id dokumen atau kandungan dokumen pengetahuan yang sepadan kerana model bahasa adalah pangkalan pengetahuan [13]!
    4. Berdasarkan pembelajaran pengukuhan: Ia juga merupakan kaedah yang agak canggih seperti OpenAI's WebGPT [14] menggunakan maklum balas manusia untuk melatih model untuk mendapatkan pengetahuan yang betul.

    Berinteraksi dengan model atau alatan

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Model bahasa berinteraksi dengan model atau alatan, terutamanya Tujuannya adalah untuk menguraikan tugas-tugas yang kompleks, seperti menguraikan tugas-tugas penaakulan kompleks kepada beberapa sub-tugas, yang juga merupakan idea teras Rantaian Pemikiran [17]. Subtugas yang berbeza boleh diselesaikan menggunakan model atau alat dengan keupayaan yang berbeza Contohnya, tugasan pengkomputeran boleh diselesaikan menggunakan kalkulator, dan tugas mendapatkan semula boleh diselesaikan menggunakan model perolehan. Oleh itu, interaksi jenis ini bukan sahaja dapat meningkatkan keupayaan penaakulan, perancangan, dan membuat keputusan model bahasa, tetapi juga mengurangkan batasan model bahasa seperti "halusinasi" dan output yang tidak tepat. Khususnya, apabila alat digunakan untuk melaksanakan sub-tugas tertentu, ia mungkin mempunyai kesan tertentu pada dunia luar, seperti menggunakan API WeChat untuk menyiarkan kalangan rakan, dsb., yang dipanggil "Berorientasikan Alat Pembelajaran" [ 2].

    Selain itu, kadangkala sukar untuk menguraikan tugas yang kompleks secara eksplisit. Dalam kes ini, peranan atau kemahiran yang berbeza boleh diberikan kepada model bahasa yang berbeza, dan kemudian Biarkan model bahasa ini secara tersirat dan automatik membentuk pembahagian kerja semasa proses kerjasama dan komunikasi bersama untuk mengurai tugas. Jenis interaksi ini bukan sahaja dapat memudahkan proses penyelesaian tugas yang kompleks, tetapi juga mensimulasikan masyarakat manusia dan membina beberapa bentuk masyarakat ejen pintar.

    Pengarang menggabungkan model dan alatan, terutamanya kerana model dan alatan tidak semestinya dua kategori yang berasingan, contohnya, alat enjin carian dan model retriever tidak penting. Intipati ini ditakrifkan oleh pengarang menggunakan "selepas penguraian tugas, jenis subtugas yang dilakukan oleh objek jenis apa".

    Apabila model bahasa berinteraksi dengan model atau alat, terdapat tiga jenis operasi:

    1. Pemikiran: Model berinteraksi dengan dirinya sendiri , lakukan penguraian tugas dan penaakulan;
    2. Lakonan: Model memanggil model lain, atau alat luaran, dsb., untuk membantu dengan penaakulan, atau mempunyai kesan sebenar pada dunia luaran ;
    3. Berkolaborasi: Ejen model berbilang bahasa berkomunikasi dan bekerjasama antara satu sama lain untuk menyelesaikan tugas tertentu atau mensimulasikan tingkah laku sosial manusia.

    Nota: Berfikir terutamanya bercakap tentang "Rantaian Pemikiran Pelbagai Peringkat", iaitu: langkah penaakulan yang berbeza, sepadan dengan bahasa Panggilan model yang berbeza (berbilang model run), bukannya menjalankan model sekali dan mengeluarkan pemikiran+jawapan pada masa yang sama (model tunggal dijalankan) seperti Vanilla CoT [17]. ungkapan ReAct [18].

    Tugas biasa Pemikiran termasuk ReAct [18], Paling Kurang Mendorong [19], Tanya Sendiri [20], dsb. Sebagai contoh, Least-to-Most Prompting [19] mula-mula menguraikan masalah yang kompleks kepada beberapa sub-masalah modul mudah, dan kemudian secara berulang memanggil model bahasa untuk menyelesaikannya satu demi satu.

    Kerja tipikal lakonan termasuk ReAct [18], HuggingGPT [21], Toolformer [22], dsb. Sebagai contoh, Toolformer [22] memproses korpus pra-latihan model bahasa ke dalam bentuk dengan gesaan penggunaan alat Oleh itu, model bahasa terlatih boleh secara automatik memanggil alat yang betul pada masa yang tepat apabila menjana alat luaran (. seperti enjin carian, alat terjemahan, alat masa, kalkulator, dsb.) menyelesaikan sub-masalah tertentu.

    Bekerjasama terutamanya termasuk:

    1. Interaksi gelung tertutup: seperti Model Socratic [23], dsb., melalui bahasa besar model dan model bahasa visual , interaksi gelung tertutup model bahasa audio untuk menyelesaikan tugas QA kompleks tertentu khusus untuk persekitaran visual.
    2. Teori Minda: Bertujuan untuk membolehkan seorang ejen memahami dan meramalkan keadaan ejen lain untuk menggalakkan interaksi yang cekap antara satu sama lain. Sebagai contoh, Kertas Cemerlang EMNLP 2021, MindCraft [24], memberikan dua model bahasa yang berbeza kemahiran yang berbeza tetapi saling melengkapi, membolehkan mereka bekerjasama untuk menyelesaikan tugas tertentu dalam dunia MineCraft semasa proses komunikasi. Profesor terkenal Graham Neubig juga telah memberi perhatian yang besar kepada arah penyelidikan ini baru-baru ini, seperti [25]. Contoh paling tipikal ialah Ejen Generatif [26] Universiti Stanford yang baru-baru ini mengejutkan dunia: membina persekitaran kotak pasir dan membenarkan banyak ejen pintar yang disuntik dengan "jiwa" daripada model besar untuk bergerak bebas di dalamnya, mereka secara spontan boleh membentangkan beberapa seperti manusia. Tingkah laku sosial, seperti berbual dan bertanya khabar, mempunyai rasa "Dunia Barat" (seperti yang ditunjukkan di bawah). Di samping itu, karya yang lebih terkenal ialah karya baharu CAMEL [27] oleh pengarang DeepGCN, yang membolehkan dua ejen yang diberi kuasa oleh model besar untuk membangunkan permainan dan juga stok stok dalam proses berkomunikasi antara satu sama lain tanpa memerlukan terlalu banyak campur tangan manusia. campur tangan. Penulis dengan jelas mengemukakan konsep “Large Model Society” (LLM Society) dalam artikel tersebut.

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Ejen Generatif: Simulakra Interaktif Tingkah Laku Manusia, https://arxiv.org/pdf/2304.03442 .pdf

    Berinteraksi dengan persekitaran

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPTModel bahasa dan persekitaran tergolong kepada dua kuadran berbeza: model bahasa dibina pada simbol teks abstrak dan mahir dalam penaakulan peringkat tinggi, perancangan, membuat keputusan dan tugas-tugas lain manakala persekitaran dibina di atas isyarat deria tertentu (seperti maklumat visual, maklumat pendengaran , dsb.), dan simulasi Atau beberapa tugas peringkat rendah mungkin berlaku secara semula jadi, seperti menyediakan pemerhatian, maklum balas, peralihan keadaan, dsb. (contohnya: sebiji epal jatuh ke tanah di dunia nyata, dan "menjalar" muncul dalam enjin simulasi di hadapan anda).

    Oleh itu, untuk membolehkan model bahasa berinteraksi secara berkesan dan cekap dengan persekitaran, ia merangkumi dua aspek usaha:

    Asas Modaliti: membolehkan model bahasa memproses maklumat berbilang modal seperti imej dan audio

    1. Asas Mampu: membolehkan model bahasa menganalisis maklumat yang mungkin dan sesuai pada skala tertentu; senario persekitaran Objek melakukan tindakan yang mungkin dan sesuai.
    2. Yang paling tipikal untuk Modality Grounding ialah model bahasa visual. Secara umumnya, ia boleh dijalankan menggunakan model menara tunggal seperti OFA [28], model dua menara seperti BridgeTower [29], atau interaksi model bahasa dan model visual seperti BLIP-2 [30]. Tiada butiran lanjut akan dinyatakan di sini, pembaca boleh merujuk kertas ini untuk butirannya.

    Terdapat dua pertimbangan utama untuk Affordance Grounding, iaitu: cara melaksanakan (1) persepsi skala adegan (persepsi skala adegan) di bawah syarat tugasan yang diberikan, dan (2 ) tindakan yang mungkin. Contohnya:

    Sebagai contoh, dalam adegan di atas, tugasan yang diberikan "Sila tutup lampu di ruang tamu" dan "Persepsi skala pemandangan" memerlukan kami mencari semua lampu dengan kotak merah, bukannya memilih yang hijau yang tidak ada di ruang tamu tetapi di dapur Untuk lampu yang dibulatkan, "tindakan yang mungkin" memerlukan kita untuk menentukan cara yang boleh dilakukan untuk mematikan lampu Sebagai contoh, menarik lampu tali memerlukan tindakan "tarik". dan menghidupkan dan mematikan lampu memerlukan tindakan "suis togol".

    Secara amnya, Affordance Grounding boleh diselesaikan menggunakan fungsi nilai yang bergantung pada persekitaran, seperti SayCan [31], dsb., atau model pembumian khusus seperti Grounded Decoding [ 32] tunggu. Ia juga boleh diselesaikan dengan berinteraksi dengan orang, model, alatan, dll. (seperti yang ditunjukkan di bawah).

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Monolog Dalaman [33]

    Apakah interaksi itu digunakan :Antaramuka Interaksi

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Dalam bab Antaramuka Interaksi kertas kerja, penulis secara sistematik membincangkan penggunaan, kebaikan dan keburukan interaksi yang berbeza bahasa dan media interaksi , termasuk:

    1. Bahasa semula jadi: seperti contoh beberapa pukulan, arahan tugas, penugasan peranan dan juga bahasa semula jadi berstruktur, dsb. Ciri-ciri dan fungsinya dalam generalisasi dan ekspresitiviti dibincangkan terutamanya.
    2. Bahasa formal: seperti kod, tatabahasa, formula matematik, dsb. Ciri-ciri dan fungsinya dalam parsability dan keupayaan penaakulan dibincangkan terutamanya.
    3. Bahasa mesin: seperti gesaan lembut, token visual diskret, dsb. Ciri-ciri dan fungsinya dalam generalisasi, teori kesesakan maklumat, kecekapan interaksi, dll. terutamanya dibincangkan.
    4. Pengeditan: Ini terutamanya termasuk operasi seperti memadam, memasukkan, menggantikan dan mengekalkan teks. Prinsip, sejarah, kelebihan, dan batasan semasa dibincangkan.
    5. Memori dikongsi: terutamanya termasuk memori keras dan memori lembut yang pertama merekodkan status sejarah dalam log sebagai memori, dan yang kedua menggunakan modul luaran memori yang boleh dibaca dan boleh ditulis untuk menyimpannya. Tensor. Kertas kerja membincangkan ciri, fungsi dan batasan kedua-duanya.

    Cara berinteraksi: kaedah interaksi

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Kertas ini juga membincangkannya secara menyeluruh, dalam terperinci dan sistematik Pelbagai kaedah interaksi, terutamanya termasuk:

    1. Mendorong: Tanpa melaraskan parameter model, model bahasa hanya dipanggil melalui kejuruteraan segera, meliputi Pembelajaran Dalam Konteks, Rantaian Pemikiran dan petua penggunaan alat ( Penggunaan alat), rantaian penaakulan lata ( Prompt Chaining) dan kaedah lain, prinsip, fungsi, pelbagai helah dan batasan pelbagai teknik dorongan dibincangkan secara terperinci, seperti pertimbangan kebolehkawalan dan keteguhan, dsb.
    2. Penalaan Halus: Laraskan parameter model untuk membolehkan model belajar dan mengemas kini daripada maklumat interaktif. Bahagian ini merangkumi kaedah seperti Penalaan Arahan Terselia, Penalaan Halus Cekap Parameter, Pembelajaran Berterusan dan Penalaan Halus Separuh Penyeliaan. Prinsip, fungsi, kelebihan, pertimbangan dalam penggunaan khusus, dan batasan kaedah ini dibincangkan secara terperinci. Ia juga termasuk sebahagian daripada Penyuntingan Pengetahuan (iaitu, menyunting pengetahuan di dalam model).
    3. Pembelajaran Aktif: Rangka kerja algoritma pembelajaran aktif interaktif.
    4. Pembelajaran Pengukuhan: Rangka kerja algoritma pembelajaran pengukuhan interaktif, membincangkan rangka kerja pembelajaran pengukuhan dalam talian, rangka kerja pembelajaran pengukuhan luar talian, pembelajaran daripada maklum balas manusia (RLHF), pembelajaran daripada maklum balas alam sekitar ( RLEF), pembelajaran daripada Maklum balas AI (RLAIF) dan kaedah lain.
    5. Pembelajaran Tiruan: Rangka kerja algoritma pembelajaran tiruan interaktif, membincangkan pembelajaran tiruan dalam talian, pembelajaran tiruan luar talian, dsb.
    6. Penggabungan Mesej Interaksi: Menyediakan rangka kerja bersatu untuk semua kaedah interaksi di atas Pada masa yang sama, dalam rangka kerja ini, ia berkembang ke luar dan membincangkan penyelesaian gabungan pengetahuan dan maklumat yang berbeza, seperti. silang- Skim gabungan perhatian (perhatian silang), skema gabungan penyahkodan terkekang (penyahkodan terkekang), dsb.

    Perbincangan lain

    Disebabkan had ruang, artikel ini tidak memperincikan perbincangan lain, seperti penilaian, aplikasi, etika, keselamatan dan arahan pembangunan masa hadapan. Walau bagaimanapun, kandungan ini masih menduduki 15 halaman dalam teks asal kertas, jadi pembaca disyorkan untuk melihat lebih banyak butiran dalam teks asal Berikut ialah garis besar kandungan ini:

    Penilaian interaksi

    Perbincangan penilaian dalam kertas kerja terutamanya melibatkan kata kunci berikut:

    Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT

    Aplikasi utama NLP interaktif

  3. Berinteraksi dengan model dan alatan: CTG Berpandukan Pengelas dsb.
  4. Berinteraksi dengan persekitaran: kemampuan pembumian dll.
  5. Pembantu Penulisan Interaktif (Pembantu Penulisan)
  6. Kandungan Sokongan: Jenis sokongan kandungan


    Pemeriksaan dan Penggilapan Kandungan: Jenis penyemakan dan penggilapan kandungan
  • Pengayaan Kandungan: Jenis pengayaan kandungan
  • Penciptaan Bersama Kandungan: Penciptaan Kandungan
  • AI Terjelma


    • Permainan (Permainan Teks)
    • Platform Permainan Interaktif yang mengandungi teks: Platform Permainan Teks Interaktif
    • Betapa interaktifnya model bahasa boleh menguasakan permainan teks sahaja: Bermain Permainan Teks Sahaja
    • Cara model bahasa interaktif boleh menguasai permainan yang termasuk media teks: Memperkasakan Permainan Berbantukan Teks
    • Aplikasi lain
    • Pengkhususan bidang dan tugas (Pengkhususan): Contohnya, cara mencipta rangka kerja model bahasa khusus untuk bidang kewangan, bidang perubatan, dsb. berdasarkan interaksi .
    • Peribadi & Keperibadian: Contohnya, cara mencipta model bahasa khusus kepada pengguna atau dengan personaliti tertentu berdasarkan interaksi.
    • Penilaian Berasaskan Model

    Etika dan Keselamatan

    Membincangkan kesan model bahasa interaktif terhadap pendidikan, dan turut membincangkan isu etika dan keselamatan seperti berat sebelah sosial dan privasi.

    Hal Tuju Pembangunan Masa Depan dan Cabaran

    • Penjajaran: Masalah penjajaran model bahasa, bagaimana untuk menjadikan output model lebih tidak berbahaya, lebih sesuai dengan nilai kemanusiaan, lebih munasabah, dsb.
    • Penjelmaan Sosial: Masalah asas model bahasa, bagaimana untuk menggalakkan lagi penjelmaan dan sosialisasi model bahasa.
    • Keplastikan: Isu keplastikan model bahasa, cara memastikan pengemaskinian berterusan pengetahuan model tanpa melupakan pengetahuan yang diperoleh sebelum ini semasa proses kemas kini.
    • Kelajuan & Kecekapan: Isu seperti kelajuan inferens dan kecekapan latihan model bahasa, cara mempercepatkan inferens tanpa menjejaskan prestasi dan kecekapan latihan dipercepat.
    • Panjang Konteks: Had saiz tetingkap konteks model bahasa. Cara mengembangkan saiz tetingkap konteks supaya ia boleh mengendalikan teks yang lebih panjang.
    • Penjanaan Teks Panjang: Masalah penjanaan teks panjang model bahasa. Cara menjadikan model bahasa mengekalkan prestasi cemerlang dalam senario penjanaan teks yang sangat panjang.
    • Kebolehaksesan: Isu ketersediaan model bahasa. Cara membuat model bahasa daripada sumber tertutup kepada sumber terbuka dan cara membolehkan model bahasa digunakan pada peranti pinggir seperti sistem kenderaan dan komputer riba tanpa kehilangan prestasi yang berlebihan.
    • Analisis: Analisis model bahasa, kebolehtafsiran dan isu lain. Contohnya, bagaimana untuk meramalkan prestasi model selepas ditingkatkan untuk membimbing pembangunan model besar, cara menerangkan mekanisme dalaman model besar, dsb.
    • Kreativiti: Isu kreatif dalam model bahasa. Bagaimana untuk menjadikan model bahasa lebih kreatif, lebih mampu menggunakan metafora, metafora, dll., dan mencipta pengetahuan baru, dsb.
    • Penilaian: Cara menilai model besar am dengan lebih baik, cara menilai ciri interaktif model bahasa, dsb.

Atas ialah kandungan terperinci Apa lagi yang boleh dilakukan oleh NLP? Universiti Beihang, ETH, Universiti Sains dan Teknologi Hong Kong, Akademi Sains China dan institusi lain bersama-sama mengeluarkan kertas setebal seratus muka surat untuk menerangkan secara sistematik rantaian teknologi pasca-ChatGPT. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan