Perlumbaan
AI semakin pantas seperti sebelum ini, dan berikutan pelancaran Meta semalam bagi model sumber terbuka baharunya Llama 3.1, syarikat permulaan AI Perancis Mistral AI telah menyertai pergaduhan itu.
Sebentar tadi, Mistral AI mengumumkan generasi akan datang model sumber terbuka utamanya: Mistral Large 2, yang mempunyai 123 bilion parameter dan setanding dengan model terkini daripada OpenAI dan Meta dari segi penjanaan kod, matematik, penaakulan, dan banyak lagi.
Susulan keluaran Llama 3.1 405B, keluaran Mistral Large 2 tiba-tiba menjadikan trek model besar sumber terbuka meriah, dan ciri model ini ialah - "cukup besar".
Secara khusus, walaupun bilangan parameter Mistral Large 2 lebih rendah daripada 405 bilion Llama 3.1, prestasi kedua-duanya hampir. Dan ia setanding dengan GPT-4o dan Anthropic's Claude 3.5 Sonnet dalam pelbagai penanda aras.
Pada Februari tahun ini, Mistral AI melancarkan model Besar asli, yang tetingkap konteksnya mengandungi 32,000 token Versi baharu model dibina atas dasar ini dan mempunyai tetingkap konteks yang lebih besar iaitu 128,000 (kira-kira setara. sebuah buku) buku 300 muka surat) - Memadankan GPT-4o dan GPT-4o OpenAI dan Llama 3.1 Meta.
Pada masa ini, Mistral Large 2 menyokong berdozen bahasa, termasuk Perancis, Jerman, Sepanyol, Itali, Portugis, Arab, Hindi, Rusia, Cina, Jepun dan Korea serta lebih daripada 80 bahasa pengaturcaraan, termasuk Python, Java, C, C++, JavaScript dan Bash.
Mistral AI menunjukkan bahawa model baharu akan terus menolak sempadan kecekapan kos, kelajuan dan prestasi, sambil menyediakan pengguna dengan keupayaan baharu, termasuk panggilan dan perolehan fungsi lanjutan, untuk membina aplikasi AI berprestasi tinggi.
Namun, perlu diingat bahawa walaupun Mistral Large 2 dibuka, ia terhad kepada penyelidikan dan penggunaan bukan komersial. Ia menyediakan pemberat terbuka, membolehkan pihak ketiga memperhalusi model mengikut keperluan mereka. Perjanjian ini merupakan had penting pada syarat penggunaan pengguna. Untuk kegunaan komersil yang memerlukan penggunaan sendiri Mistral Large 2, lesen komersial Mistral AI mesti diperolehi terlebih dahulu.
Prestasi
Pada pelbagai penunjuk penilaian, Mistral Large 2 telah menetapkan piawaian baharu dalam prestasi dan kos perkhidmatan. Terutama pada MMLU, versi pra-latihan mencapai ketepatan 84.0%.
Kod dan Penaakulan
Mistral AI melatih Mistral Large 2 pada sebahagian besar kod berdasarkan pengalaman sebelumnya dengan Codestral 22B dan Codestral Mamba.
Mistral Large 2 berprestasi jauh lebih baik daripada Mistral Large generasi sebelumnya dan setanding dengan model teratas seperti GPT-4o, Claude 3 Opus dan Llama 3 405B. . tidak relevan. Ini dicapai dengan memperhalusi model agar lebih berhati-hati dan tajam dalam tindak balasnya, memastikan ia memberikan output yang boleh dipercayai dan tepat.
Selain itu, Mistral Large 2 akan mengakui apabila ia tidak dapat mencari penyelesaian atau tidak mempunyai maklumat yang mencukupi untuk memberikan jawapan yang yakin. Pencarian ketepatan ini dicerminkan dalam prestasi model yang dipertingkatkan pada penanda aras matematik, dengan graf berikut menunjukkan keupayaan penaakulan dan penyelesaian masalah yang dipertingkatkan:
semua proses penilaian yang sama). L Ketepatan prestasi pada Multipl-E (kecuali untuk Kertas, semua model diuji dengan proses penilaian yang sama). .
Arahan untuk diikuti dan diselaraskan
Mistral AI telah mempertingkatkan keupayaan mengikuti arahan dan perbualan Mistral Large 2 dengan banyak. Mistral Large 2 baharu amat baik dalam mengikut arahan yang tepat dan mengendalikan perbualan yang panjang dan berbilang pusingan. T Berikut ialah prestasinya dalam ujian penanda aras MT-Bench, Wild Bench, dan Arena Hard:
Prestasi model dalam ujian penjajaran universal (semua model diuji oleh PIPELINE penilaian yang sama) Dalam sesetengah penanda aras, menjana jawapan yang lebih panjang cenderung untuk meningkatkan penilaian. Walau bagaimanapun, dalam banyak aplikasi komersial, kesederhanaan adalah penting kerana penjanaan model ringkas mempercepatkan interaksi dan mengurangkan kos inferens.
Jadi Mistral AI meletakkan banyak usaha untuk memastikan kandungan yang dihasilkannya adalah padat dan padat yang mungkin.
Angka berikut menunjukkan purata panjang jawapan yang dijana oleh model berbeza pada soalan penanda aras MT Bench:
Kepelbagaian BahasaSebilangan besar senario aplikasi komersial hari ini melibatkan pemprosesan dokumen berbilang bahasa. Mistral Large 2 telah dilatih mengenai sejumlah besar data berbilang bahasa, khususnya dalam bahasa Inggeris, Perancis, Jerman, Sepanyol, Itali, Portugis, Belanda, Rusia, Cina, Jepun, Korea, Arab dan Hindi.
Berikut ialah keputusan prestasi Mistral Large 2 dalam penanda aras MMLU berbilang bahasa, terutamanya berbanding dengan model Mistral Large, Llama 3.1 dan Cohere’s Command R+ sebelumnya: MMLU Bahasa prestasi (diukur dengan model asas pra-latihan)
Penggunaan alat dan panggilan fungsi
Mistral Large 2 dilengkapi dengan kemahiran memanggil dan mendapatkan semula fungsi yang dipertingkatkan, dan dilatih untuk melakukan panggilan fungsi selari dan berurutan dengan mahir, membuat panggilan fungsi Ia secara berurutan. boleh menjadi enjin yang berkuasa untuk aplikasi perniagaan yang kompleks. Gambar di bawah menunjukkan perbandingan ketepatan Mistral Large 2 dengan model arus perdana lain dari segi panggilan fungsi:
Cuba Mistral Large 2
Pengguna boleh menggunakan Mistral Large 2 di la Plateforme, bernama Mistral Large 2 -2407 dan diuji pada le Chat. Versinya ialah 24.07 (Mistral menggunakan sistem penomboran versi YY.MM untuk semua model), dan nama API ialah mistral-large-2407.
Berat untuk model arahan disediakan, dihoskan pada HuggingFace. Pautan berat: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407Mistral AI sedang menyepadukan produk di la Plateforme kepada dua model umum:Mistral Nemo dan Mistral Large, serta dua Model profesional: Codestral dan Embed. Semasa mereka menghentikan model lama ala Plateforme, semua model Apache (termasuk Mistral 7B, Mixtral 8x7B dan 8x22B, Codestral Mamba, Mathstral) masih boleh digunakan dan digunakan menggunakan SDK Mistral AI - mistral-inference dan mistral-finetune Fine tune.
Mulai hari ini, mereka telah mengembangkan ciri penalaan halus ala Plateforme: kini mereka mengusahakan Mistral Large, Mistral Nemo dan Codestral. Selain itu, Mistral AI mempunyai kerjasama dengan penyedia perkhidmatan awan, dan Mistral Large 2 akan tersedia pada platform ini tidak lama lagi. Mistral AI telah mengembangkan perkongsiannya dengan Google Cloud Platform untuk membawa model Mistral AI kepada Vertex AI melalui API Terurus. Sementara itu, ia juga boleh didapati di Amazon Bedrock, Azure AI Studio dan IBM watsonx.ai.
Pautan rujukan: https://mistral.ai/news/mistral-large-2407/kejutan-dengan-model-terbuka-baru-mistral-large-2-taking-on-llama-3-1/
https://techcrunch.com/2024/07/24/mistral-releases- besar-2-meta-openai-ai-models/
Atas ialah kandungan terperinci Penembak tepat tepat Llama 3.1? Sumber terbuka Mistral AI Large 2, 123B adalah setanding dengan Llama 405B. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!