Jadual Kandungan
Kaedah Latihan
Penilaian Model
Kecacatan model
Rumah Peranti teknologi AI Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Apr 13, 2023 pm 04:04 PM
Model Sumber terbuka

Apabila model bahasa berskala besar menjadi semakin berkuasa, orang ramai telah mengemukakan keperluan etika yang lebih tinggi untuk model AI. Industri mempunyai kelebihan sumber pengkomputeran dari segi pengembangan skala model, tetapi menjadikan model lebih piawai dan boleh dipercayai memerlukan usaha komuniti akademik.

Baru-baru ini, Stanford memperhalusi model Alpaca baharu berdasarkan model LLaMA 7B Meta. Kajian ini menggunakan model teks-davinci-003 OpenAI untuk menjana 52K sampel mengikut arahan dengan cara arahan kendiri sebagai data latihan untuk Alpaca. Pasukan penyelidik telah sumber terbuka data latihan, kod untuk menjana data latihan, dan hiperparameter, dan akan mengeluarkan berat model dan kod latihan pada masa hadapan.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

  • Alamat projek: https://github.com/tatsu-lab/stanford_alpaca
  • Alamat percubaan: https://alpaca-ai-custom6.ngrok.io/

Hasil eksperimen menunjukkan bahawa banyak gelagat Alpaca serupa dengan text-davinci-003. Dalam erti kata lain, prestasi Alpaca, model ringan dengan hanya parameter 7B, adalah setanding dengan model bahasa berskala sangat besar seperti GPT-3.5.

Mari kita lihat bagaimana model Alpaca melakukannya.

Kaedah Latihan

Di bawah keadaan bajet akademia, latihan pengajaran berkualiti tinggi mengikut model menghadapi dua cabaran penting: model bahasa pra-latihan yang berkuasa dan berkualiti tinggi arahan ikut data.

Siri model LLaMA Meta yang dikeluarkan baru-baru ini menangani cabaran pertama. Untuk cabaran kedua, kertas arahan kendiri pada penghujung tahun 2022 mencadangkan untuk menggunakan model bahasa berkuasa sedia ada untuk menjana data arahan secara automatik.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Alamat kertas: https://arxiv.org/abs/2212.10560

Berikutan pendekatan ini, Alpaca menggunakan pembelajaran diselia model LLaMA 7B untuk memperhalusi arahan 52K mengikut sampel yang dihasilkan oleh teks-davinci-003 dalam arahan kendiri cara.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Ikhtisar kaedah arahan kendiri.

Pasukan penyelidik Alpaca mula-mula menggunakan 175 pasangan arahan-output bertulis manual dalam set benih arahan kendiri, dan kemudian menggunakan set benih ini sebagai contoh gesaan dalam konteks text-davinci-003 untuk menjana lebih banyak arahan. Penyelidikan ini menambah baik kaedah arahan kendiri dengan memudahkan saluran paip penjanaan dan mengurangkan kos dengan ketara.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Kajian ini menghasilkan sejumlah 52K arahan berbeza dan output yang sepadan sebagai data latihan, yang menggunakan API OpenAI yang kosnya lebih murah daripada $500. Memandangkan pasukan penyelidik telah membuka sumber data latihan, pembangun yang ingin menghasilkan semula Alpaca boleh menjimatkan $500.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Dengan arahan ini berikutan set data, langkah penyelidikan seterusnya adalah untuk memperhalusi model LLaMA menggunakan rangka kerja latihan Memeluk Wajah, Dan menggunakan teknologi seperti FSDP (Fully Sharded Data Parallel) dan latihan ketepatan campuran. Dari segi kos, penalaan halus model LLaMA 7B pada lapan 80GB A100 mengambil masa 3 jam, yang berharga kurang daripada $100 untuk kebanyakan penyedia awan.

Penilaian Model

Kajian ini melakukan penilaian manual menggunakan input daripada set penilaian arahan kendiri, yang dilakukan oleh 5 pelajar daripada pasukan penyelidik. Set penilaian telah dikumpulkan oleh pengarang kertas arahan kendiri dan meliputi pelbagai arahan berorientasikan pengguna yang melibatkan e-mel, media sosial dan alatan pejabat.

Selepas perbandingan berpasangan buta bagi text-davinci-003 dan Alpaca 7B, para penyelidik mendapati bahawa prestasi kedua-dua model adalah sangat serupa, dan Alpaca adalah lebih baik sedikit daripada text-davinci-003.

Dari perspektif skala parameter, Alpaca jauh lebih kecil daripada text-davinci-003, dan terminal mudah alih juga boleh menjalankan model bahasa ringan 7B. Ini menjadikan Alpaca penting.

Selain menggunakan set penilaian arahan kendiri statik yang dinyatakan di atas, kajian ini juga menjalankan ujian interaktif pada model Alpaca dan mendapati bahawa Alpaca secara amnya berprestasi serupa dengan text-davinci-003.

Di bawah ialah dua contoh yang diuji oleh pasukan penyelidik, yang menunjukkan bahawa output Alpaca adalah baik dan mencerminkan gaya umum set data mengikut arahan. Sebagai contoh, Alpaca sering mengeluarkan jawapan yang lebih ringkas daripada ChatGPT, serupa dengan text-davinci-003.

Kecacatan model

Dalam eksperimen, Alpaca juga menunjukkan beberapa kecacatan biasa model bahasa, termasuk halusinasi, ketoksikan dan stereotaip, antaranya masalah halusinasi amat serius.

Contohnya dalam gambar di bawah, Alpaca menjawab bahawa ibu kota Tanzania ialah Dar es Salaam, tetapi ia sepatutnya Dodoma.

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Selain itu, Alpaca mampu menghasilkan teks yang mungkin kelihatan baik tetapi mengandungi ralat atau maklumat palsu, yang boleh mengelirukan orang .

Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100

Alpaca mungkin mengandungi beberapa kelemahan lain yang berkaitan dengan model bahasa asas dan data penalaan arahan. Walau bagaimanapun, Alpaca kekal penting kepada komuniti pembelajaran mesin kerana ia menyediakan model yang agak ringan yang boleh menjadi asas untuk mengkaji kelemahan penting. Pasukan penyelidik Stanford juga menekankan bahawa Alpaca hanya boleh digunakan untuk penyelidikan akademik dan sebarang penggunaan komersial adalah dilarang.

Seterusnya, pasukan penyelidik Stanford akan meneroka lebih lanjut keselamatan, kebolehan pemahaman, pengembangan skala, dll. bagi model Alpaca. Pasukan penyelidik berharap Alpaca akan memudahkan pembangunan model mengikut arahan.

Atas ialah kandungan terperinci Model sumber terbuka parameter 7 bilion Stanford adalah setanding dengan GPT-3.5 dan boleh diterbitkan semula dengan harga $100. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Apr 01, 2024 pm 07:46 PM

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Disyorkan: Projek pengesanan dan pengecaman muka sumber terbuka JS yang sangat baik Disyorkan: Projek pengesanan dan pengecaman muka sumber terbuka JS yang sangat baik Apr 03, 2024 am 11:55 AM

Teknologi pengesanan dan pengecaman muka adalah teknologi yang agak matang dan digunakan secara meluas. Pada masa ini, bahasa aplikasi Internet yang paling banyak digunakan ialah JS Melaksanakan pengesanan muka dan pengecaman pada bahagian hadapan Web mempunyai kelebihan dan kekurangan berbanding dengan pengecaman muka bahagian belakang. Kelebihan termasuk mengurangkan interaksi rangkaian dan pengecaman masa nyata, yang sangat memendekkan masa menunggu pengguna dan meningkatkan pengalaman pengguna termasuk: terhad oleh saiz model, ketepatannya juga terhad. Bagaimana untuk menggunakan js untuk melaksanakan pengesanan muka di web? Untuk melaksanakan pengecaman muka di Web, anda perlu biasa dengan bahasa dan teknologi pengaturcaraan yang berkaitan, seperti JavaScript, HTML, CSS, WebRTC, dll. Pada masa yang sama, anda juga perlu menguasai visi komputer yang berkaitan dan teknologi kecerdasan buatan. Perlu diingat bahawa kerana reka bentuk bahagian Web

Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! May 06, 2024 pm 04:13 PM

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye Apr 26, 2024 am 11:37 AM

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

See all articles