


Adakah anda perlu bertanya tentang model bahasa semasa berkencan dengan teman lelaki anda? Sifat: Cadangkan idea dan ringkaskan nota GPT-3 telah menjadi 'pekerja penyelidik saintifik' kontemporari.
Biarkan monyet menekan kekunci secara rawak pada mesin taip Selagi anda memberikannya cukup lama, ia boleh menaip karya lengkap Shakespeare.
Bagaimana jika monyet yang memahami tatabahasa dan semantik? Jawapannya ialah penyelidikan saintifik pun boleh dilakukan untuk anda!
Momentum pembangunan model bahasa sangat pesat Beberapa tahun lalu, ia hanya boleh melengkapkan perkataan seterusnya secara automatik untuk menjadi input pada kaedah input Hari ini, ia sudah dapat membantu penyelidik menganalisis dan menulis kertas saintifik dan menjana kod.
Latihan model bahasa besar (LLM) secara amnya memerlukan sejumlah besar data teks untuk sokongan.
Pada tahun 2020, OpenAI mengeluarkan model GPT-3 dengan 175 bilion parameter Ia boleh menulis puisi, menyelesaikan masalah matematik dan hampir semua model generatif yang boleh dilakukan oleh GPT-3 mencapai yang muktamad Malah pada hari ini, GPT-3 masih menjadi garis dasar untuk banyak model bahasa untuk dibandingkan dan diatasi.
Selepas keluaran GPT-3, ia dengan cepat mencetuskan perbincangan hangat di Twitter dan media sosial lain Sebilangan besar penyelidik terkejut dengan kaedah "tulisan seperti manusia" yang pelik ini.
Selepas GPT-3 mengeluarkan perkhidmatan dalam taliannya, pengguna boleh memasukkan teks sesuka hati dan membiarkan model mengembalikan yang berikut Caj minimum setiap 750 perkataan yang diproses hanya $0.0004, yang sangat berpatutan .
Baru-baru ini, satu artikel telah diterbitkan dalam ruangan Alam tentang sains dan teknologi, saya tidak sangka selain membantu anda menulis esei, model bahasa ini juga boleh membantu anda "lakukan penyelidikan saintifik"!
Biar mesin membantu anda berfikir
Hafsteinn Einarsson, seorang saintis komputer di Universiti Iceland di Reykjavik, berkata: Saya hampir menggunakannya setiap hari GPT-3, seperti menyemak abstrak kertas.
Ketika Einarsson sedang menyediakan salinan pada mesyuarat pada bulan Jun, walaupun GPT-3 membuat banyak cadangan pengubahsuaian yang tidak berguna, terdapat juga beberapa cadangan yang berguna, seperti "Buat soalan kajian dalam abstrak" "Permulaan manuskrip lebih jelas", dan anda tidak akan menyedari masalah seperti ini apabila anda membaca manuskrip itu sendiri, melainkan anda meminta orang lain membacanya untuk anda. Dan mengapa orang lain ini tidak boleh "GPT-3"?
Model bahasa malah boleh membantu anda memperbaik reka bentuk percubaan anda!
Dalam projek lain, Einarsson mahu menggunakan permainan Pictionary untuk mengumpul data bahasa dalam kalangan peserta.
Selepas memberi penerangan tentang permainan, GPT-3 memberikan beberapa cadangan untuk pengubahsuaian permainan. Secara teori, penyelidik juga boleh meminta percubaan baru pada protokol eksperimen.
Sesetengah penyelidik juga menggunakan model bahasa untuk menjana tajuk kertas atau menjadikan teks lebih mudah dibaca.
Kaedah yang digunakan oleh Mina Lee, pelajar kedoktoran yang merupakan profesor sains komputer di Universiti Stanford, ialah memasukkan "Gunakan kata kunci ini untuk menjana tajuk kertas" ke dalam GPT-3 sebagai gesaan, dan model akan Kami akan membantu anda menghasilkan beberapa tajuk.
Jika beberapa bab perlu ditulis semula, dia juga akan menggunakan Wordtune, pembantu penulisan kecerdasan buatan yang dikeluarkan oleh makmal AI21 di Tel Aviv, Israel Dia hanya perlu mengklik "Tulis Semula". untuk menukar Hanya tulis semula petikan dalam berbilang versi dan kemudian pilih dengan teliti.
Lee juga akan meminta GPT-3 untuk memberikan nasihat tentang beberapa perkara dalam kehidupan Contohnya, apabila bertanya "bagaimana untuk memperkenalkan teman lelakinya kepada ibu bapanya", GPT-3 mencadangkan pergi pantai.
Domenic Rosati, seorang saintis komputer di Scite, sebuah syarikat permulaan teknologi yang terletak di Brooklyn, New York, menggunakan model bahasa Generate untuk menyusun semula ideanya.
Pautan: https://cohere.ai/generate
Jana oleh NLP di Kanada Dibangunkan oleh syarikat Cohere, aliran kerja model itu sangat serupa dengan GPT-3.
Anda hanya perlu memasukkan nota, atau hanya bercakap tentang beberapa idea, dan akhirnya menambah "ringkaskan" atau "menjadikannya konsep abstrak", dan model akan menyusunnya secara automatik untuk idea anda.
Kenapa tulis kod sendiri?
Penyelidik OpenAI melatih GPT-3 pada sejumlah besar teks, termasuk buku, berita, entri Wikipedia dan kod perisian.
Kemudian, pasukan menyedari bahawa GPT-3 boleh melengkapkan kod seperti teks biasa.
Para penyelidik mencipta versi algoritma yang diperhalusi yang dipanggil Codex, dilatih pada lebih daripada 150G teks daripada platform perkongsian kod GitHub GitHub kini telah menyepadukan Codex ke dalam perkhidmatan Copilot , pengguna boleh dibantu dalam menulis kod.
Luca Soldaini, seorang saintis komputer di AI2 di Allen Institute for Artificial Intelligence di Seattle, Washington, berkata sekurang-kurangnya separuh daripada orang di pejabat mereka menggunakan Copilot
Soldaini berkata Copilot paling sesuai untuk senario pengaturcaraan berulang. Sebagai contoh, salah satu projeknya melibatkan menulis kod templat untuk memproses PDF, dan Copilot menyelesaikannya secara langsung.
Walau bagaimanapun, Copilot sering melakukan kesilapan semasa melengkapkan kandungan, jadi sebaiknya gunakannya dalam bahasa yang anda biasa gunakan.
Pencarian sastera
Mungkin senario aplikasi model bahasa yang paling matang ialah mencari dan meringkaskan dokumen.
Enjin carian Semantic Scholar yang dibangunkan oleh AI2 menggunakan model bahasa TLDR untuk memberikan penerangan seperti Twitter bagi setiap kertas kerja.
Enjin carian merangkumi kira-kira 200 juta kertas, kebanyakannya daripada bioperubatan dan sains komputer.
Pembangunan TLDR adalah berdasarkan model BART yang dikeluarkan sebelum ini oleh Meta, dan kemudian penyelidik AI2 memperhalusi model tersebut berdasarkan ringkasan tulisan manusia.
Menurut piawaian hari ini, TLDR bukanlah model bahasa yang besar, kerana ia hanya mengandungi kira-kira 400 juta parameter, manakala versi terbesar GPT-3 mengandungi 175 bilion.
TLDR juga digunakan dalam Semantic Reader, aplikasi kertas saintifik lanjutan yang dibangunkan oleh AI2.
Apabila pengguna menggunakan petikan dalam teks dalam Pembaca Semantik, kotak maklumat yang mengandungi ringkasan TLDR akan muncul.
Dan Weld, ketua saintis Semantic Scholar, berkata idea kami ialah menggunakan model bahasa untuk meningkatkan pengalaman membaca.
Apabila model bahasa menghasilkan ringkasan teks, model itu mungkin menghasilkan beberapa fakta yang tidak wujud dalam artikel Penyelidik memanggil masalah ini sebagai "ilusi", tetapi sebenarnya bahasa Model itu hanya mengada-adakan atau berbohong.
TLDR menunjukkan prestasi yang baik dalam ujian ketulenan. Pengarang kertas menilai ketepatan TLDR sebagai 2.5 mata (daripada 3 mata).
Weld berkata TLDR adalah lebih realistik kerana ringkasan hanya kira-kira 20 patah perkataan sahaja, dan mungkin kerana algoritma tidak memasukkan perkataan ke dalam ringkasan yang tidak muncul dalam teks.
Dari segi alat carian, Ought, sebuah organisasi bukan untung pembelajaran mesin di San Francisco, California, melancarkan Elicit pada tahun 2021. Jika pengguna bertanya "Apakah kesan kesedaran terhadap membuat keputusan ?" ia akan Keluarkan jadual yang mengandungi sepuluh kertas.
Pengguna boleh meminta perisian untuk mengisi lajur dengan perkara seperti abstrak dan metadata, serta maklumat tentang peserta kajian , kaedah dan maklumat keputusan, yang kemudiannya diekstrak atau dijana daripada kertas menggunakan alatan termasuk GPT-3.
Hala tuju penyelidikan Joel Chan ialah interaksi manusia-komputer di University of Maryland, College Park Setiap kali dia memulakan projek baharu, dia menggunakan Elicit untuk mencari kertas kerja yang berkaitan.
Gustav Nilsonne, ahli sains saraf di Institut Karolinska di Stockholm, juga menggunakan Elicit untuk mencari kertas dengan data yang boleh ditambahkan pada meta-analisis yang tidak ditemui dalam carian lain fail.
Model berkembang
Prototaip AI2 memberikan LLM rasa futuristik.
Kadangkala penyelidik mempunyai soalan selepas membaca abstrak kertas saintifik tetapi tidak sempat membaca teks penuh.
Sebuah pasukan di AI2 juga telah membangunkan alat yang boleh menjawab soalan-soalan ini dalam bidang NLP.
Model pertama memerlukan penyelidik membaca abstrak kertas NLP dan kemudian bertanya soalan yang berkaitan (seperti "Apakah lima atribut perbualan yang dianalisis?")
Pasukan penyelidik kemudian meminta penyelidik lain menjawab soalan-soalan ini selepas membaca keseluruhan kertas kerja.
AI2 melatih versi lain model bahasa Longformer, memasukkannya sebagai kertas lengkap, dan kemudian menggunakan The yang dikumpul. set data menjana jawapan kepada soalan berbeza tentang kertas lain.
Model ACCoRD boleh menjana definisi dan analogi untuk 150 konsep saintifik yang berkaitan dengan NLP.
MS2 ialah set data yang mengandungi 470,000 dokumen perubatan dan 20,000 ringkasan berbilang dokumen Selepas memperhalusi BART dengan MS2, penyelidik dapat mengemukakan soalan dan satu set dokumen dan menjana A. ringkasan meta-analisis ringkas.
Pada 2019, AI2 memperhalusi BERT, model bahasa yang dicipta oleh Google pada 2018 dan mencipta SciBERT dengan 110 juta parameter berdasarkan kertas Semantic Scholar
Scite menggunakan kecerdasan buatan untuk mencipta enjin carian saintifik, memperhalusi lagi SciBERT supaya apabila enjin cariannya menyenaraikan kertas yang memetik kertas sasaran, ia mengkategorikan kertas tersebut sebagai menyokong, membezakan atau cara lain untuk merujuk kepada kertas.
Rosati berkata nuansa ini membantu orang ramai mengenal pasti batasan atau jurang dalam kesusasteraan saintifik.
Model SPECTER AI2 juga berdasarkan SciBERT, yang memudahkan kertas menjadi perwakilan matematik yang padat.
Penganjur persidangan menggunakan SPECTER untuk memadankan kertas yang diserahkan kepada pengulas rakan sebaya, dan Semantic Scholar menggunakannya untuk mengesyorkan kertas kerja berdasarkan perpustakaan pengguna, kata Weld.
Tom Hope, seorang saintis komputer di Hebrew University dan AI2, berkata mereka mempunyai projek penyelidikan memperhalusi model bahasa untuk mengenal pasti gabungan ubat yang berkesan, pautan antara gen dan penyakit serta cabaran saintifik dalam penyelidikan dan hala tuju COVID-19.
Tetapi bolehkah model bahasa memberikan cerapan yang lebih mendalam, malah keupayaan penemuan?
Pada bulan Mei, Hope dan Weld mengarang bersama ulasan dengan Ketua Pegawai Sains Microsoft Eric Horvitz yang menggariskan cabaran untuk mencapai matlamat ini, termasuk model pengajaran untuk "(infer ) adalah hasil daripada menyusun semula dua konsep."
Hope berkata ini pada dasarnya adalah perkara yang sama seperti OpenAI's DALL · Model penjanaan imej E 2 "menjana gambar kucing terbang ke angkasa", tetapi bagaimana kita boleh bergerak ke arah menggabungkan abstraksi Bagaimana pula dengan konsep saintifik yang sangat kompleks?
Ini soalan terbuka.
Hari ini, model bahasa yang besar telah memberi kesan yang nyata pada penyelidikan dan jika orang ramai belum mula menggunakan model bahasa yang besar ini untuk membantu kerja mereka, mereka akan terlepas peluang ini.
Rujukan:
https://www.nature.com/articles/d41586-022-03479-w
Atas ialah kandungan terperinci Adakah anda perlu bertanya tentang model bahasa semasa berkencan dengan teman lelaki anda? Sifat: Cadangkan idea dan ringkaskan nota GPT-3 telah menjadi 'pekerja penyelidik saintifik' kontemporari.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Pautan projek ditulis di hadapan: https://nianticlabs.github.io/mickey/ Memandangkan dua gambar, pose kamera di antara mereka boleh dianggarkan dengan mewujudkan kesesuaian antara gambar. Biasanya, surat-menyurat ini adalah 2D hingga 2D, dan anggaran pose kami adalah skala-tak tentu. Sesetengah aplikasi, seperti realiti tambahan segera pada bila-bila masa, di mana-mana sahaja, memerlukan anggaran pose metrik skala, jadi mereka bergantung pada penganggar kedalaman luaran untuk memulihkan skala. Makalah ini mencadangkan MicKey, proses pemadanan titik utama yang mampu meramalkan korespondensi metrik dalam ruang kamera 3D. Dengan mempelajari padanan koordinat 3D merentas imej, kami dapat membuat kesimpulan relatif metrik
