Model bahasa kecil Microsoft Orca-2 13B mengalahkan alternatif 70B
Microsoft baru-baru ini mengeluarkan kertas penyelidikan baharu mengenai model AI Orca-2 generasi akan datang. Membuktikan bahawa kuasa kecerdasan buatan bukan sahaja digunakan pada sistem terbesar dan paling kompleks, tetapi juga berkembang maju dalam rangka kerja yang lebih padat dan mudah diakses. Microsoft telah mengambil langkah berani ke arah ini dengan pengenalan Orca-2, Orca-2 ialah model bahasa yang mencabar tanggapan popular bahawa lebih besar sentiasa bermakna lebih baik. Perkembangan baharu ini amat menarik bagi mereka yang meminati kecerdasan buatan dan berusaha untuk menolak sempadan kemampuan sistem ini.
Kertas penyelidikan Microsoft bertajuk "Orca-2: Teaching small language models how to reason" ialah penerokaan menarik tentang cara melatih model kecil seperti Orca-2 untuk meningkatkan keupayaan penaakulan mereka. Orca-2 hanya mempunyai 13 bilion parameter, membuktikan bahawa kualiti latihan boleh mempengaruhi keupayaan inferens model dengan ketara. Ini adalah cerapan penting bagi sesiapa yang berminat dengan potensi model kecil untuk melaksanakan tugas kompleks yang pernah dianggap sebagai domain eksklusif model yang lebih besar. Microsoft menerangkan lebih lanjut:
“Orca 2 ialah langkah terbaharu kami dalam menerokai keupayaan LM kecil (kira-kira 10 bilion parameter atau kurang Dengan Orca 2, kami terus menunjukkan bahawa isyarat dan kaedah latihan yang dipertingkatkan boleh membolehkan model Bahasa yang lebih kecil membolehkan dipertingkatkan). keupayaan inferens biasanya hanya terdapat dalam model bahasa yang lebih besar Salah satu aspek yang paling menarik bagi
Orca-2 ialah keupayaannya untuk mengatasi sebanyak 70 bilion dalam parameter inferens Ini adalah bukti pendekatan inovatif Microsoft amat penting bagi mereka yang bekerja di bawah kekangan pengiraan atau mencari penyelesaian AI yang lebih cekap -2 datang dalam dua saiz (7 bilion dan 13 bilion parameter); kedua-duanya diperhalusi pada data sintetik berkualiti tinggi tersuai Dihasilkan daripada model asas LLAMA 2 yang sepadan pembangunan, penilaian dan penjajaran LM kecil
Microsoft Orca-2
Untuk menyerlahkan komitmen mereka terhadap kemajuan kolaboratif dalam kecerdasan buatan , Microsoft telah menyediakan pemberat model untuk Orca-2
ini membolehkan peminat dan penyelidik sama-sama memanfaatkan teknologi terkini ini, mengintegrasikannya ke dalam projek mereka sendiri, dan menyumbang kepada kemajuan kolektif kecerdasan buatan Kertas penyelidikan ini melangkaui pembelajaran tiruan tradisional dan memperkenalkan kaedah latihan alternatif yang memberikan strategi inferens berbilang Orca-2 Kaedah ini membolehkan model menyesuaikan diri dengan tugasan yang berbeza, menunjukkan kaedah Latihan AI yang lebih kompleks. tentukan semula cara kami mengajar mesin untuk berfikirOrca-2 dibina berdasarkan sintesis yang dibuat dengan teliti Model ini dilatih pada set data
dan mencapai prestasi penanda aras yang ketara Ini bermakna model itu telah diasah melalui penggunaan data yang strategik, memastikan keberkesanan dan kebolehsesuaiannya untuk aplikasi praktikal. Bermaksud model yang bukan sahaja berkuasa tetapi juga serba boleh dalam mengendalikan pelbagai senario Syarat pelesenan Orca-2 disesuaikan untuk menekankan sifat berorientasikan penyelidikan apabila menggunakan model itu dirancang untuk dipertimbangkan kerana ia menyokong persekitaran pembangunan berfokuskan penyelidikan dan membimbing penggunaan Orca-2 dalam pelbagai projekMicrosoft juga menyediakan arahan terperinci untuk menyediakan Orca-2 pada mesin tempatan anda. Pengguna boleh menyesuaikan model keperluan khusus mereka dan memperoleh pemahaman yang lebih mendalam tentang kerja dalamannya Sama ada anda seorang pembangun, penyelidik atau peminat AI, tahap penyesuaian ini amat berharga untuk menerokai keupayaan penuh Orca-2
Microsoft's Orca-2 model bahasa padat, menyediakan keupayaan inferens yang dipertingkatkan yang mencabar penguasaan model besar. Sama ada melalui kerjasama sumber terbuka, teknologi latihan inovatif atau inisiatif penyelidikan, bekerjasama dengan Orca-2 meletakkan anda di barisan hadapan dalam tempoh transformatif dalam pembangunan AI. Orca-2 Microsoft bukan sahaja meluaskan ufuk tentang perkara yang boleh dilakukan oleh model kecil, tetapi juga menjemput anda untuk mengambil peranan aktif dalam bidang yang menarik ini.Atas ialah kandungan terperinci Model bahasa kecil Microsoft Orca-2 13B mengalahkan alternatif 70B. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Di barisan hadapan teknologi perisian, kumpulan UIUC Zhang Lingming, bersama penyelidik dari organisasi BigCode, baru-baru ini mengumumkan model kod besar StarCoder2-15B-Instruct. Pencapaian inovatif ini mencapai kejayaan ketara dalam tugas penjanaan kod, berjaya mengatasi CodeLlama-70B-Instruct dan mencapai bahagian atas senarai prestasi penjanaan kod. Keunikan StarCoder2-15B-Instruct terletak pada strategi penjajaran diri yang tulen Keseluruhan proses latihan adalah terbuka, telus, dan sepenuhnya autonomi dan boleh dikawal. Model ini menjana beribu-ribu arahan melalui StarCoder2-15B sebagai tindak balas kepada penalaan halus model asas StarCoder-15B tanpa bergantung pada anotasi manual yang mahal.

1. Pengenalan Sejak beberapa tahun kebelakangan ini, YOLO telah menjadi paradigma dominan dalam bidang pengesanan objek masa nyata kerana keseimbangannya yang berkesan antara kos pengiraan dan prestasi pengesanan. Penyelidik telah meneroka reka bentuk seni bina YOLO, matlamat pengoptimuman, strategi pengembangan data, dsb., dan telah mencapai kemajuan yang ketara. Pada masa yang sama, bergantung pada penindasan bukan maksimum (NMS) untuk pemprosesan pasca menghalang penggunaan YOLO dari hujung ke hujung dan memberi kesan buruk kepada kependaman inferens. Dalam YOLO, reka bentuk pelbagai komponen tidak mempunyai pemeriksaan yang komprehensif dan teliti, mengakibatkan lebihan pengiraan yang ketara dan mengehadkan keupayaan model. Ia menawarkan kecekapan suboptimum, dan potensi yang agak besar untuk peningkatan prestasi. Dalam kerja ini, matlamatnya adalah untuk meningkatkan lagi sempadan kecekapan prestasi YOLO daripada kedua-dua pasca pemprosesan dan seni bina model. sampai habis

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

Menurut berita dari laman web ini pada 1 Ogos, SK Hynix mengeluarkan catatan blog hari ini (1 Ogos), mengumumkan bahawa ia akan menghadiri Global Semiconductor Memory Summit FMS2024 yang akan diadakan di Santa Clara, California, Amerika Syarikat dari 6 hingga 8 Ogos, mempamerkan banyak produk penjanaan teknologi baru. Pengenalan kepada Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage), dahulunya Sidang Kemuncak Memori Flash (FlashMemorySummit) terutamanya untuk pembekal NAND, dalam konteks peningkatan perhatian kepada teknologi kecerdasan buatan, tahun ini dinamakan semula sebagai Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage) kepada jemput vendor DRAM dan storan serta ramai lagi pemain. Produk baharu SK hynix dilancarkan tahun lepas