


Fudan mengeluarkan ChatGPT versi Cina: MOSS mula menguji dan mencapai carian hangat, pelayan terlalu sesak
ChatGPT ialah AI yang paling maju dan aplikasi paling popular - sejak dikeluarkan pada penghujung November tahun lalu, pengguna aktif bulanannya telah melebihi 100 juta dalam masa dua bulan, dengan mudah menduduki tempat pertama dalam pertumbuhan pengguna dalam sejarah daripada Internet global.
Ia juga merupakan teknologi dengan ambang yang tinggi. Oleh kerana sumber pengkomputeran yang besar dan kos pelabelan yang tinggi diperlukan untuk proses latihan ChatGPT, pada masa ini tiada produk serupa yang dibuka kepada orang ramai di China. Syarikat Internet utama seperti Baidu, Alibaba, dan JD.com semuanya telah mengeluarkan berita bahawa mereka sedang membina "ChatGPT domestik" dan akan mengeluarkannya dalam masa terdekat.
Sebelum produk pengeluar utama disediakan, komuniti akademik mempunyai berita terlebih dahulu. Pada petang 20 Februari, Makmal Pemprosesan Bahasa Semulajadi Universiti Fudan mengeluarkan MOSS, model bahasa dengan keupayaan ChatGPT, dan menjemput orang ramai untuk ujian dalaman.
- Pautan pengalaman MOSS: https://moss.fastnlp.top/
- Laman utama projek MOSS: https://txsun1997.github.io/blogs/moss.html
Nama MOSS berasal daripada filem "The Wandering Earth" Sepopular filem itu, berita yang dikeluarkan oleh MOSS dengan cepat mencapai senarai carian hangat di Zhihu dan platform lain.
Walau bagaimanapun, tidak seperti fiksyen sains, AI dunia sebenar belum lagi mendapat restu komputer kuantum, dan ia adalah tidak 24 tahun lagi untuk dibuka kepada orang ramai Selama berjam-jam, disebabkan tekanan akses segera yang berlebihan, pelayan MOSS terlalu sesak malam tadi, yang menunjukkan betapa tingginya jangkaan semua orang untuk menjana model bahasa.
Menurut penyelidik dari Universiti Fudan, ia sedang dalam ujian dalaman dan sedang dioptimumkan secara berulang untuk interaksi pengguna dan tidak sesuai untuk ujian awam.
Kami tahu bahawa pemprosesan bahasa semula jadi adalah salah satu cabaran terbesar dalam bidang AI, dan walaupun kejayaan telah pun berlaku, bulan ini Carian Bing baharu yang dilancarkan dalam talian, serta produk pesaing BARD yang dikeluarkan oleh Google, mempunyai masalah dari semasa ke semasa semasa ujian Apakah tahap MOSS Universiti Fudan?
Bercakap dengan MOSS, bagaimana tahap anda?
Fungsi asas MOSS adalah serupa dengan ChatGPT Ia boleh menyelesaikan pelbagai tugas pemprosesan bahasa semula jadi mengikut arahan yang dimasukkan oleh pengguna, termasuk penjanaan teks, ringkasan teks, terjemahan, penjanaan kod, berbual, dll. Semasa tempoh pratonton, penggunaan MOSS adalah percuma.
MOSS adalah sama seperti ChatGPT Proses pembinaan merangkumi latihan asas model bahasa semula jadi dan latihan keupayaan dialog untuk memahami manusia niat.
Menurut laman utama projek, perbezaan utama antara MOSS dan ChatGPT ialah:
- MOSS mempunyai parameter yang jauh lebih sedikit daripada ChatGPT.
- MOSS belajar dengan bercakap dengan manusia dan model AI lain, manakala ChatGPT dilatih melalui Pembelajaran Pengukuhan dengan Maklum Balas Manusia (RLHF).
- MOSS akan menjadi sumber terbuka untuk memudahkan penyelidikan masa depan, tetapi ChatGPT mungkin tidak.
Mari lihat beberapa contoh bagaimana MOSS perbualan. Berikut ialah beberapa rekod interaksi yang dijana oleh MOSS:
Dalam contoh ini, pengguna mula-mula meminta MOSS mengesyorkan lima filem fiksyen sains, kemudian meminta MOSS menjana jadual untuk memaparkan filem ini dan pengarahnya, dan akhirnya meminta MOSS memasukkan lajur baharu dalam jadual untuk memaparkan filem ini pada tahun tayangan. Melengkapkan tugasan ini memerlukan model bahasa mempunyai keupayaan interaksi berbilang pusingan yang kuat dan keupayaan pemahaman arahan jelas menunjukkan prestasi yang baik dalam kedua-dua aspek ini.
Serupa dengan ChatGPT, MOSS kadangkala mengeluarkan contoh ralat fakta.
Selain berbilang pusingan dialog, kod penjanaan MOSS juga mudah. Dalam contoh berikut, MOSS bukan sahaja boleh menyediakan pengguna dengan kod Python untuk melaksanakan pengisihan pantas, tetapi juga memberikan penjelasan dan contoh penggunaan untuk kod ini atas permintaan pengguna Ia boleh dikatakan bahawa ia adalah pengaturcara yang mengajar langkah demi langkah.
Selain membenarkan MOSS membantu menulis kod, anda juga boleh bertanya soalan MOSS tentang butiran kod untuk menjadikannya lebih tepat . Bantuan yang baik dalam memahami kod. Dalam contoh di bawah, pengguna bertanya kepada MOSS tentang bahasa pengaturcaraan dan fungsi sekeping kod, dan selanjutnya bertanya tentang peranan salah satu fungsi MOSS memberikan balasan yang memuaskan.
Selain itu, MOSS juga memiliki nilai kemanusiaan apabila diminta menjawab soalan yang tidak munasabah, MOSS akan enggan menjawab dan memberi nasihat yang betul.
Difahamkan bahawa MOSS menggunakan model yang dibangunkan sendiri dengan berpuluh bilion parameter untuk latihan. Semasa fasa latihan keupayaan dialog, OpenAI mengumpul sekurang-kurangnya ratusan ribu arahan manusia - membenarkan anotasi profesional daripada pelbagai industri menulis arahan dan kemudian memasukkannya ke dalam pangkalan model untuk membantu ChatGPT memahami pelbagai arahan secara beransur-ansur. Pasukan Fudan menggunakan laluan teknikal yang berbeza Dengan membenarkan MOSS berinteraksi dengan manusia dan model AI lain, ia meningkatkan kecekapan pembelajaran dan kecekapan R&D dengan ketara, dan menyelesaikan latihan keupayaan dialog dengan cekap dalam masa yang singkat.
Pasukan R&D menyatakan bahawa walaupun MOSS telah melaksanakan beberapa fungsi ChatGPT, masih terdapat banyak batasan kerana kekurangan data berkualiti tinggi, sumber pengkomputeran dan kapasiti model, MOSS adalah masih jauh ketinggalan di ChatGPT.
- Disebabkan korpus berbilang bahasa yang terhad dalam data latihan, MOSS berprestasi lemah dalam memahami dan menjana teks dalam bahasa selain bahasa Inggeris. Pasukan itu kini sedang membangunkan versi yang dipertingkatkan untuk meningkatkan kemahiran bahasa Cina mereka.
- Disebabkan kapasiti model yang agak kecil, MOSS tidak mengandungi pengetahuan dunia yang mencukupi. Oleh itu, beberapa respons yang dijana oleh MOSS mungkin mengandungi maklumat yang mengelirukan atau palsu.
- Kadangkala MOSS beraksi secara bulatan atau malah gagal mengikut arahan. Dalam kes ini, pengguna mungkin perlu menjana semula atau mengubah suai gesaan beberapa kali untuk mendapatkan respons yang memuaskan. Pasukan ini secara aktif meningkatkan keupayaannya untuk mengikuti arahan dan produktivitinya.
- Kadangkala MOSS boleh menghasilkan tindak balas yang tidak beretika atau berbahaya disebabkan oleh gesaan. Pengguna boleh membantu mengurangkan tingkah laku ini dengan mengklik "Tidak suka" dan pasukan akan mengemas kini model dalam keluaran seterusnya.
Pasukan penyelidik menyatakan bahawa prestasi MOSS versi semasa masih tidak stabil dan turut dipengaruhi oleh isu set data: "Tahap jawapan bahasa Inggeris MOSS lebih tinggi daripada bahasa Cina kerana modelnya Pangkalan itu telah mempelajari lebih daripada 300 bilion perkataan Inggeris, manakala hanya kira-kira 30 bilion perkataan Cina telah dipelajari."
Selepas dikeluarkan, pasukan itu akan terus menyediakan MOSS dengan antara muka yang boleh diakses berdasarkan maklumat yang berharga Maklum balas pengguna (dengan kebenaran) menambah baik model secara berterusan.
Pada masa akan datang, para penyelidik juga merancang untuk menggabungkan hasil penyelidikan Fudan dalam kecerdasan buatan dan subjek antara disiplin yang berkaitan untuk memberikan keupayaan multi-modal MOSS seperti lukisan, suara dan gubahan, dan mengukuhkan ia untuk membantu saintis Keupayaan untuk menjalankan penyelidikan saintifik yang cekap, dsb.
Saya harap MOSS boleh membuat permulaan yang baik untuk pembangunan model dialog domestik yang besar.
Pengenalan Pasukan
Terdapat dua pengarang utama MOSS: Profesor Qiu Xipeng dari Universiti Fudan dan pelajar kedoktorannya Sun Tianxiang. Di samping itu, beberapa ahli menyumbang kepada projek itu.
Qiu Xipeng, profesor di Pusat Pengajian Sains dan Teknologi Komputer, Universiti Fudan, penyelia kedoktoran. Seorang Sarjana Muda Cemerlang Negara, beliau menerima ijazah Sarjana Muda Sains dan Kedoktoran dari Universiti Fudan. Terlibat terutamanya dalam penyelidikan dalam pemprosesan bahasa semula jadi, pembelajaran mendalam dan hala tuju lain, menerbitkan lebih daripada 70 kertas kerja Kategori CCF A/B, dan memenangi Anugerah Kertas Cemerlang ACL 2017 (Kategori CCF A), Anugerah Kertas Terbaik CCL 2019, "Sains di China : Sains Teknikal" Dalam Anugerah Kertas Berimpak Tinggi 2021, 5 kertas kerja telah dipilih sebagai kertas kerja paling berpengaruh IJCAI/ACL/EMNLP yang diterbitkan oleh PaperDigest (bilangan petikan memasuki 20 teratas persidangan semasa). Menerbitkan monograf sumber terbuka "Rangkaian Neural dan Pembelajaran Dalam", dengan 15,000 pengikut Github dan skor Douban 9.4. Beliau mengetuai pembangunan rangka kerja sumber terbuka FudanNLP dan FastNLP, yang telah digunakan oleh ratusan unit di dalam dan luar negara. Pada 2015, beliau dipilih ke dalam Projek Promosi Bakat Belia Sains dan Teknologi China yang pertama Pada 2018, beliau memenangi hadiah pertama Anugerah Inovasi Belia bagi Anugerah Sains dan Teknologi Pemprosesan Maklumat Cina Qian Weichang Anugerah Kecemerlangan dalam Pertandingan Pengajaran Guru Muda Universiti Shanghai ke-4 Pada tahun 2021, beliau memenangi hadiah pertama Anugerah Pencapaian Pengajaran Persatuan Komputer Shanghai (orang pertama yang menamatkannya), dsb. Para pelajar telah dilatih untuk memenangi pelbagai biasiswa akademik peringkat pertama, Microsoft Scholars, Baidu Scholarships, dsb.
Sun Tianxiang ialah pelajar kedoktoran di Sekolah Sains Komputer di Universiti Fudan. Penyelianya ialah Profesor Qiu Xipeng dan Profesor Huang Xuanjing. Lulus dari Universiti Sains dan Teknologi Elektronik Xi'an pada 2019. Minat penyelidikan tertumpu pada pembelajaran mesin dan aplikasinya dalam pemprosesan bahasa semula jadi, terutamanya penalaan halus yang cekap dan inferens model bahasa pra-latihan, pembelajaran berbilang tugas, pembelajaran perwakilan pengetahuan, dsb. Menerbitkan berbilang kertas sebagai pengarang pertama dalam persidangan seperti ICML, ACL, NAACL, AAAI, COLING, dll.
Atas ialah kandungan terperinci Fudan mengeluarkan ChatGPT versi Cina: MOSS mula menguji dan mencapai carian hangat, pelayan terlalu sesak. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

Menurut berita dari laman web ini pada 5 Julai, GlobalFoundries mengeluarkan kenyataan akhbar pada 1 Julai tahun ini, mengumumkan pemerolehan teknologi power gallium nitride (GaN) Tagore Technology dan portfolio harta intelek, dengan harapan dapat mengembangkan bahagian pasarannya dalam kereta dan Internet of Things dan kawasan aplikasi pusat data kecerdasan buatan untuk meneroka kecekapan yang lebih tinggi dan prestasi yang lebih baik. Memandangkan teknologi seperti AI generatif terus berkembang dalam dunia digital, galium nitrida (GaN) telah menjadi penyelesaian utama untuk pengurusan kuasa yang mampan dan cekap, terutamanya dalam pusat data. Laman web ini memetik pengumuman rasmi bahawa semasa pengambilalihan ini, pasukan kejuruteraan Tagore Technology akan menyertai GLOBALFOUNDRIES untuk membangunkan lagi teknologi gallium nitride. G
