Rumah > masalah biasa > Model bahasa kecil Microsoft Orca-2 13B mengalahkan alternatif 70B

Model bahasa kecil Microsoft Orca-2 13B mengalahkan alternatif 70B

王林
Lepaskan: 2023-11-29 08:51:17
ke hadapan
1329 orang telah melayarinya

Microsoft baru-baru ini mengeluarkan kertas penyelidikan baharu mengenai model AI Orca-2 generasi akan datang. Membuktikan bahawa kuasa kecerdasan buatan bukan sahaja digunakan pada sistem terbesar dan paling kompleks, tetapi juga berkembang maju dalam rangka kerja yang lebih padat dan mudah diakses. Microsoft telah mengambil langkah berani ke arah ini dengan pengenalan Orca-2, Orca-2 ialah model bahasa yang mencabar tanggapan popular bahawa lebih besar sentiasa bermakna lebih baik. Perkembangan baharu ini amat menarik bagi mereka yang meminati kecerdasan buatan dan berusaha untuk menolak sempadan kemampuan sistem ini.

Kertas penyelidikan Microsoft bertajuk "Orca-2: Teaching small language models how to reason" ialah penerokaan menarik tentang cara melatih model kecil seperti Orca-2 untuk meningkatkan keupayaan penaakulan mereka. Orca-2 hanya mempunyai 13 bilion parameter, membuktikan bahawa kualiti latihan boleh mempengaruhi keupayaan inferens model dengan ketara. Ini adalah cerapan penting bagi sesiapa yang berminat dengan potensi model kecil untuk melaksanakan tugas kompleks yang pernah dianggap sebagai domain eksklusif model yang lebih besar. Microsoft menerangkan lebih lanjut:

“Orca 2 ialah langkah terbaharu kami dalam menerokai keupayaan LM kecil (kira-kira 10 bilion parameter atau kurang Dengan Orca 2, kami terus menunjukkan bahawa isyarat dan kaedah latihan yang dipertingkatkan boleh membolehkan model Bahasa yang lebih kecil membolehkan dipertingkatkan). keupayaan inferens biasanya hanya terdapat dalam model bahasa yang lebih besar Salah satu aspek yang paling menarik bagi

Orca-2 ialah keupayaannya untuk mengatasi sebanyak 70 bilion dalam parameter inferens Ini adalah bukti pendekatan inovatif Microsoft amat penting bagi mereka yang bekerja di bawah kekangan pengiraan atau mencari penyelesaian AI yang lebih cekap -2 datang dalam dua saiz (7 bilion dan 13 bilion parameter); kedua-duanya diperhalusi pada data sintetik berkualiti tinggi tersuai Dihasilkan daripada model asas LLAMA 2 yang sepadan pembangunan, penilaian dan penjajaran LM kecil

Microsoft Orca-2

Untuk menyerlahkan komitmen mereka terhadap kemajuan kolaboratif dalam kecerdasan buatan , Microsoft telah menyediakan pemberat model untuk Orca-2

ini membolehkan peminat dan penyelidik sama-sama memanfaatkan teknologi terkini ini, mengintegrasikannya ke dalam projek mereka sendiri, dan menyumbang kepada kemajuan kolektif kecerdasan buatan

Kertas penyelidikan ini melangkaui pembelajaran tiruan tradisional dan memperkenalkan kaedah latihan alternatif yang memberikan strategi inferens berbilang Orca-2 Kaedah ini membolehkan model menyesuaikan diri dengan tugasan yang berbeza, menunjukkan kaedah Latihan AI yang lebih kompleks. tentukan semula cara kami mengajar mesin untuk berfikir

Orca-2 dibina berdasarkan sintesis yang dibuat dengan teliti Model ini dilatih pada set data

dan mencapai prestasi penanda aras yang ketara Ini bermakna model itu telah diasah melalui penggunaan data yang strategik, memastikan keberkesanan dan kebolehsesuaiannya untuk aplikasi praktikal. Bermaksud model yang bukan sahaja berkuasa tetapi juga serba boleh dalam mengendalikan pelbagai senario

Syarat pelesenan Orca-2 disesuaikan untuk menekankan sifat berorientasikan penyelidikan apabila menggunakan model itu dirancang untuk dipertimbangkan kerana ia menyokong persekitaran pembangunan berfokuskan penyelidikan dan membimbing penggunaan Orca-2 dalam pelbagai projek

Microsoft juga menyediakan arahan terperinci untuk menyediakan Orca-2 pada mesin tempatan anda. Pengguna boleh menyesuaikan model keperluan khusus mereka dan memperoleh pemahaman yang lebih mendalam tentang kerja dalamannya Sama ada anda seorang pembangun, penyelidik atau peminat AI, tahap penyesuaian ini amat berharga untuk menerokai keupayaan penuh Orca-2

Microsoft's Orca-2 model bahasa padat, menyediakan keupayaan inferens yang dipertingkatkan yang mencabar penguasaan model besar. Sama ada melalui kerjasama sumber terbuka, teknologi latihan inovatif atau inisiatif penyelidikan, bekerjasama dengan Orca-2 meletakkan anda di barisan hadapan dalam tempoh transformatif dalam pembangunan AI. Orca-2 Microsoft bukan sahaja meluaskan ufuk tentang perkara yang boleh dilakukan oleh model kecil, tetapi juga menjemput anda untuk mengambil peranan aktif dalam bidang yang menarik ini.

Atas ialah kandungan terperinci Model bahasa kecil Microsoft Orca-2 13B mengalahkan alternatif 70B. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:yundongfang.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan