Model besar SOTA peringkat perusahaan, apakah isyarat yang dikeluarkan oleh Claude3 Anthropic?
Pengarang |. Wanchen
Penyunting |.
Anthropic mengeluarkan satu set model siri Claude 3 yang besar pada hari Isnin waktu tempatan, mendakwa modelnya yang paling berkuasa mengatasi GPT-4 OpenAI dan Gemini 1.0 Ultra Google dalam pelbagai ujian penanda aras. Walau bagaimanapun, keupayaan untuk mengendalikan tugas penaakulan yang lebih kompleks, menjadi lebih bijak dan bertindak balas dengan lebih pantas, keupayaan komprehensif yang berada di kedudukan antara 3 teratas dalam model besar hanyalah kemahiran asas Claude3.Anthropic komited untuk menjadi rakan kongsi terbaik untuk pelanggan korporat
.Ini pertama kali ditunjukkan dalam Claude3, iaitu satu set model: Haiku, Sonnet dan Opus, yang membolehkan pelanggan perusahaan memilih versi dengan prestasi dan kos yang berbeza mengikut senario mereka sendiri.
Kedua, Anthropic menekankan bahawa modelnya sendiri adalah yang paling selamat. Presiden Anthropic Daniela Amodei memperkenalkan bahawateknologi yang dipanggil "Kecerdasan Buatan Perlembagaan" telah diperkenalkan dalam latihan Claude3 untuk meningkatkan keselamatan, kebolehpercayaan dan kebolehpercayaannya
.Fu Yao, pelajar kedoktoran dalam model besar dan penaakulan di Universiti Edinburgh, menegaskan selepas membaca laporan teknikal Claude3 bahawa Claude3 berprestasi baik dalam ujian penanda aras penaakulan yang kompleks, terutamanya dalam bidang kewangan dan perubatan. Sebagai sebuah syarikat ToB, Anthropic memilih untuk menumpukan pada mengoptimumkan kawasan yang mempunyai potensi keuntungan paling banyak.
Kini, Anthropic terbuka untuk menggunakan dua model siri Claude3 (Haiku dan Sonnet) di 159 negara, dan versi paling berkuasa, Opus, juga akan dilancarkan. Pada masa yang sama,Anthropic juga menyediakan perkhidmatan melalui platform awan Amazon dan Google, yang kedua melabur AS$4 bilion dan AS$2 bilion masing-masing dalam Anthropic
.
Claude 3 Haiku adalah model yang paling kompak dan juga paling kos efektif. Selain itu, kelajuan tindak balasnya juga sangat pantas, dan ia boleh membaca maklumat yang mengandungi carta, graf dan kertas penyelidikan intensif data (kira-kira 10k token) pada arXiv dalam masa kurang daripada tiga saat.
02,
Dari segi ketepatan, Anthropic menggunakan sejumlah besar soalan fakta yang kompleks untuk menyasarkan kelemahan yang diketahui dalam model semasa, mengklasifikasikan jawapan kepada jawapan yang betul, jawapan yang salah (atau halusinasi) dan mengakui ketidakpastian. Sehubungan itu, model Claude3 menunjukkan bahawa ia tidak mengetahui jawapannya, dan bukannya memberikan maklumat yang salah . Versi terkuat daripada kesemuanya, Claude 3 Opus, menggandakan ketepatan (atau jawapan yang betul) pada soalan terbuka yang mencabar daripada Claude 2.1, sambil turut mengurangkan tahap jawapan yang salah.
Pada masa yang sama, disebabkan peningkatan dalam keupayaan pemahaman konteks, keluarga Claude3 akan membuat penolakan yang lebih sedikit sebagai tindak balas kepada tugas pengguna berbanding versi sebelumnya.
Sebagai tambahan kepada respons yang lebih tepat, Anthropic berkata ia akan membawa kepada Claude 3 dengan ciri "Quote" , yang boleh menunjuk kepada ayat yang tepat dalam bahan rujukan untuk mengesahkan jawapan mereka.
Pada masa ini, model siri Claude 3 akan menyediakan tetingkap konteks 200K token. Selepas itu, ketiga-tiga model akan dapat menerima input lebih daripada 1 juta token, dan keupayaan ini akan disediakan untuk memilih pelanggan yang memerlukan keupayaan pemprosesan yang dipertingkatkan. Anthropic secara ringkas menghuraikan keupayaan tetingkap teks atas Claude3 dalam laporan teknikalnya, termasuk keupayaannya untuk mengendalikan perkataan isyarat kontekstual yang lebih panjang dan keupayaan mengingatnya dengan berkesan. . Pengasas bersama Daniela Amodei berkata ini kerana "kami mendapati bahawa perniagaan kurang memerlukan imej."
katanya.
Sebelum ini, Anthropic mengumumkan "Kecerdasan Buatan Berperlembagaan" yang digunakan untuk menjajarkan model besar|Sumber imej: AnthropicNamun begitu, Anthropic menggunakan kaedah yang dipanggil "Constitutional Artificial Intelligence sebagai lancar" dengan julat luas nilai kemanusiaan, model menyesuaikan dan mengoptimumkan mengikut prinsip yang ditakrifkan dalam "Perlembagaan".
Sebagai bekas pembangun teras OpenAI, pemergian adik-beradik Amodei adalah serupa dengan aduan Musk baru-baru ini terhadap OpenAI, mempercayai bahawa OpenAI bukan lagi organisasi bukan untung dan tidak lagi mengikuti misi asalnya untuk memberi manfaat kepada manusia. Seorang wartawan bertanya kepada Amodei, adakah Anthropic sesuai dengan visi anda untuk memulakan perniagaan di luar negara?Atas ialah kandungan terperinci Claude3 yang baru terdedah secara langsung menyerang kelemahan terbesar OpenAI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!