


Claude3 yang baru terdedah secara langsung menyerang kelemahan terbesar OpenAI
Model besar SOTA peringkat perusahaan, apakah isyarat yang dikeluarkan oleh Claude3 Anthropic?
Pengarang |. Wanchen
Penyunting |.
Anthropic mengeluarkan satu set model siri Claude 3 yang besar pada hari Isnin waktu tempatan, mendakwa modelnya yang paling berkuasa mengatasi GPT-4 OpenAI dan Gemini 1.0 Ultra Google dalam pelbagai ujian penanda aras. Walau bagaimanapun, keupayaan untuk mengendalikan tugas penaakulan yang lebih kompleks, menjadi lebih bijak dan bertindak balas dengan lebih pantas, keupayaan komprehensif yang berada di kedudukan antara 3 teratas dalam model besar hanyalah kemahiran asas Claude3.Anthropic komited untuk menjadi rakan kongsi terbaik untuk pelanggan korporat
.Ini pertama kali ditunjukkan dalam Claude3, iaitu satu set model: Haiku, Sonnet dan Opus, yang membolehkan pelanggan perusahaan memilih versi dengan prestasi dan kos yang berbeza mengikut senario mereka sendiri.
Kedua, Anthropic menekankan bahawa modelnya sendiri adalah yang paling selamat. Presiden Anthropic Daniela Amodei memperkenalkan bahawateknologi yang dipanggil "Kecerdasan Buatan Perlembagaan" telah diperkenalkan dalam latihan Claude3 untuk meningkatkan keselamatan, kebolehpercayaan dan kebolehpercayaannya
.Fu Yao, pelajar kedoktoran dalam model besar dan penaakulan di Universiti Edinburgh, menegaskan selepas membaca laporan teknikal Claude3 bahawa Claude3 berprestasi baik dalam ujian penanda aras penaakulan yang kompleks, terutamanya dalam bidang kewangan dan perubatan. Sebagai sebuah syarikat ToB, Anthropic memilih untuk menumpukan pada mengoptimumkan kawasan yang mempunyai potensi keuntungan paling banyak.
Kini, Anthropic terbuka untuk menggunakan dua model siri Claude3 (Haiku dan Sonnet) di 159 negara, dan versi paling berkuasa, Opus, juga akan dilancarkan. Pada masa yang sama,Anthropic juga menyediakan perkhidmatan melalui platform awan Amazon dan Google, yang kedua melabur AS$4 bilion dan AS$2 bilion masing-masing dalam Anthropic
.

Lebih bijak dan lebih responsif Keluarga Claude3: Opus, Sonnet dan HaikuMenurut laman web rasmi Anthropic, Claude3 ialah satu siri model, termasuk tiga model termaju: Sonet Claude 3 Claude 3 Haiku 3 Opus, membolehkan pengguna memilih keseimbangan kecerdasan, kelajuan dan kos terbaik untuk aplikasi khusus mereka.
Dari segi keupayaan umum model, Anthropic berkata bahawa siri Claude 3 "menetapkan penanda aras industri baharu untuk pelbagai tugas kognitif", dalam analisis dan ramalan, penjanaan kandungan terperinci, penjanaan kod dan bukan bahasa bahasa seperti Sepanyol, Jepun dan Perancis Dari segi dialog bahasa Inggeris, ia menunjukkan kebolehan yang lebih kuat dan respons yang lebih tepat pada masanya. Antaranya, Claude 3 Opus ialah model paling pintar dalam kumpulan model ini, terutamanya apabila ia melibatkan pemprosesan tugas yang sangat kompleks. Opus mengatasi rakan setaranya dalam kebanyakan penanda aras biasa, termasuk Pengetahuan Pakar Peringkat Sarjana Muda (MMLU), Penaakulan Pakar Peringkat Siswazah (GPQA), Matematik Asas (GSM8K) dan banyak lagi. Ia menunjukkan kefahaman dan kefasihan tahap hampir manusia pada tugas yang kompleks. Ia kini merupakan penerokaan kecerdasan am yang paling canggih oleh Anthropic, "menunjukkan had luar kecerdasan buatan generatif."
Claude 3 Haiku adalah model yang paling kompak dan juga paling kos efektif. Selain itu, kelajuan tindak balasnya juga sangat pantas, dan ia boleh membaca maklumat yang mengandungi carta, graf dan kertas penyelidikan intensif data (kira-kira 10k token) pada arXiv dalam masa kurang daripada tiga saat.
02,
Menyasarkan lelaran pelanggan perusahaan pengasas bersama Daniela Amodei berkata bahawa sebagai tambahan kepada kemajuan kecerdasan am, Anthropic amat mengambil berat tentang banyak cabaran yang dihadapi oleh pelanggan perusahaan apabila mengintegrasikan AI generatif ke dalam perniagaan mereka . Ditujukan kepada pelanggan perusahaan, keluarga Claude3 menawarkan peningkatan dalam keupayaan visual, ketepatan, input teks panjang dan keselamatan.
Banyak pangkalan pengetahuan pelanggan korporat datang dalam pelbagai format, termasuk PDF, carta alir atau slaid pembentangan. Model Claude 3 Series kini boleh mengendalikan kandungan dalam pelbagai format visual, termasuk foto, carta, graf dan rajah teknikal. Claude3 juga telah dioptimumkan untuk ketepatan dan keupayaan dengan tetingkap teks panjang.Dari segi ketepatan, Anthropic menggunakan sejumlah besar soalan fakta yang kompleks untuk menyasarkan kelemahan yang diketahui dalam model semasa, mengklasifikasikan jawapan kepada jawapan yang betul, jawapan yang salah (atau halusinasi) dan mengakui ketidakpastian. Sehubungan itu, model Claude3 menunjukkan bahawa ia tidak mengetahui jawapannya, dan bukannya memberikan maklumat yang salah . Versi terkuat daripada kesemuanya, Claude 3 Opus, menggandakan ketepatan (atau jawapan yang betul) pada soalan terbuka yang mencabar daripada Claude 2.1, sambil turut mengurangkan tahap jawapan yang salah.

Pada masa yang sama, disebabkan peningkatan dalam keupayaan pemahaman konteks, keluarga Claude3 akan membuat penolakan yang lebih sedikit sebagai tindak balas kepada tugas pengguna berbanding versi sebelumnya.
Sebagai tambahan kepada respons yang lebih tepat, Anthropic berkata ia akan membawa kepada Claude 3 dengan ciri "Quote" , yang boleh menunjuk kepada ayat yang tepat dalam bahan rujukan untuk mengesahkan jawapan mereka.
Pada masa ini, model siri Claude 3 akan menyediakan tetingkap konteks 200K token. Selepas itu, ketiga-tiga model akan dapat menerima input lebih daripada 1 juta token, dan keupayaan ini akan disediakan untuk memilih pelanggan yang memerlukan keupayaan pemprosesan yang dipertingkatkan. Anthropic secara ringkas menghuraikan keupayaan tetingkap teks atas Claude3 dalam laporan teknikalnya, termasuk keupayaannya untuk mengendalikan perkataan isyarat kontekstual yang lebih panjang dan keupayaan mengingatnya dengan berkesan. . Pengasas bersama Daniela Amodei berkata ini kerana "kami mendapati bahawa perniagaan kurang memerlukan imej."
Claude3 dikeluarkan selepas kontroversi yang disebabkan oleh imej yang dihasilkan oleh Google Gemini Claude, yang menyasarkan pelanggan perusahaan, juga terikat untuk mengawal dan mengimbangi isu seperti bias nilai yang disebabkan oleh AI. Dalam hal ini, Dario Amodei menekankan kesukaran mengawal model kecerdasan buatan, memanggilnya "sains tidak tepat." Beliau berkata syarikat itu mempunyai pasukan khusus yang berdedikasi untuk menilai dan mengurangkan pelbagai risiko yang ditimbulkan oleh model itu. Seorang lagi pengasas bersama, Daniela Amodei, juga mengakui bahawa kecerdasan buatan yang tidak berat sebelah mungkin tidak dapat dilakukan dengan kaedah semasa. "Mencipta alat AI generatif neutral sepenuhnya adalah hampir mustahil, bukan sahaja dari segi teknikal, tetapi juga kerana tidak semua orang bersetuju tentang apa itu neutraliti
."katanya.
Sebelum ini, Anthropic mengumumkan "Kecerdasan Buatan Berperlembagaan" yang digunakan untuk menjajarkan model besar|Sumber imej: AnthropicNamun begitu, Anthropic menggunakan kaedah yang dipanggil "Constitutional Artificial Intelligence sebagai lancar" dengan julat luas nilai kemanusiaan, model menyesuaikan dan mengoptimumkan mengikut prinsip yang ditakrifkan dalam "Perlembagaan".
Sebagai bekas pembangun teras OpenAI, pemergian adik-beradik Amodei adalah serupa dengan aduan Musk baru-baru ini terhadap OpenAI, mempercayai bahawa OpenAI bukan lagi organisasi bukan untung dan tidak lagi mengikuti misi asalnya untuk memberi manfaat kepada manusia. Seorang wartawan bertanya kepada Amodei, adakah Anthropic sesuai dengan visi anda untuk memulakan perniagaan di luar negara?
Atas ialah kandungan terperinci Claude3 yang baru terdedah secara langsung menyerang kelemahan terbesar OpenAI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

Menurut berita dari laman web ini pada 5 Julai, GlobalFoundries mengeluarkan kenyataan akhbar pada 1 Julai tahun ini, mengumumkan pemerolehan teknologi power gallium nitride (GaN) Tagore Technology dan portfolio harta intelek, dengan harapan dapat mengembangkan bahagian pasarannya dalam kereta dan Internet of Things dan kawasan aplikasi pusat data kecerdasan buatan untuk meneroka kecekapan yang lebih tinggi dan prestasi yang lebih baik. Memandangkan teknologi seperti AI generatif terus berkembang dalam dunia digital, galium nitrida (GaN) telah menjadi penyelesaian utama untuk pengurusan kuasa yang mampan dan cekap, terutamanya dalam pusat data. Laman web ini memetik pengumuman rasmi bahawa semasa pengambilalihan ini, pasukan kejuruteraan Tagore Technology akan menyertai GLOBALFOUNDRIES untuk membangunkan lagi teknologi gallium nitride. G

Menurut berita dari laman web ini pada 1 Ogos, SK Hynix mengeluarkan catatan blog hari ini (1 Ogos), mengumumkan bahawa ia akan menghadiri Global Semiconductor Memory Summit FMS2024 yang akan diadakan di Santa Clara, California, Amerika Syarikat dari 6 hingga 8 Ogos, mempamerkan banyak produk penjanaan teknologi baru. Pengenalan kepada Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage), dahulunya Sidang Kemuncak Memori Flash (FlashMemorySummit) terutamanya untuk pembekal NAND, dalam konteks peningkatan perhatian kepada teknologi kecerdasan buatan, tahun ini dinamakan semula sebagai Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage) kepada jemput vendor DRAM dan storan serta ramai lagi pemain. Produk baharu SK hynix dilancarkan tahun lepas
