lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Saya mengeluarkan arXiv setengah tahun yang lalu, tetapi dituduh plagiarisme: CAMEL hidup dalam bayang-bayang Microsoft AutoGen
- arXiv bukan jurnal semakan rakan sebaya, jadi kertas kerja yang disiarkan di arXiv tidak perlu dipetik Adakah ini munasabah? Jika anda berminat dengan ejen AI, anda mesti tahu AutoGen Microsoft. Ia ialah rangka kerja pengaturcaraan sumber terbuka untuk membina ejen AI yang membolehkan berbilang ejen menyelesaikan tugas melalui sembang. Sementara itu, ejen LLM boleh memainkan pelbagai peranan, seperti pengaturcara, pereka bentuk, atau gabungan pelbagai peranan. Di GitHub, projek ini telah menerima 28k bintang, dan kertas kerja itu juga memenangi Anugerah Kertas Terbaik di ICLR2024LLMAgentWorkshop. Walau bagaimanapun, sebenarnya terdapat kontroversi di sebalik kertas ini. Pada November 2023, seorang penyelidik AI (Abdullah Gu
- AI 1053 2024-07-19 14:28:48
-
- Pasukan Jia Jiaya bekerjasama dengan Universiti Cambridge Tsinghua dan lain-lain untuk mempromosikan paradigma penilaian baharu untuk mengesan 'skor tinggi dan tenaga rendah' dalam model besar dalam satu saat
- Menukarkan piawaian penilaian model besar sebelumnya, set data penilaian terkini, paling lengkap dan berwibawa MR-Ben ada di sini! Ini adalah karya yang sangat mewakili yang dicadangkan sekali lagi oleh pasukan Jiajiaya Cina Hong Kong selepas keluaran Mini-Gemini, model bahasa super visual yang dipanggil GPT-4+DALL-E-3, pada April tahun ini. Di bawah "penyeliaan" MR-Ben, model besar itu bukan sahaja mesti menjawab soalan seperti pelajar, tetapi juga menandakan kertas seperti seorang guru, dan keupayaan penaakulannya yang sebenar akan didedahkan. MR-Ben telah menilai dengan teliti banyak model sumber terbuka dan sumber tertutup talian pertama dalam dan luar negara, seperti GPT4-Turbo, Cluade3.5-Sonnet, Mistral-Large, Zhipu-GLM4,
- AI 552 2024-07-19 13:55:25
-
- ACL 2024 |. Dalam penilaian matematik 25 model sumber terbuka dan tertutup, GPT-3.5-Turbo hampir tidak lulus
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini adalah dari Universiti Hong Kong dan Tencent. Senarai pengarang: Li Qintong, LeyangCui, Zhao Xueliang, Kong Lingpeng, WeiBi. Antaranya, pengarang pertama Li Qintong ialah pelajar kedoktoran di Makmal Pemprosesan Bahasa Semulajadi Universiti Hong Kong Halatuju penyelidikannya melibatkan penjanaan bahasa semula jadi.
- AI 1113 2024-07-19 13:53:41
-
- Pecutan tanpa rugi sehingga 5x, EAGLE-2 membolehkan RTX 3060 menjana lebih pantas daripada A100
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Li Yuhui: Sarjana Sekolah Perisikan, Universiti Peking Di bawah bimbingan guru Zhang Hongyang dan Zhang Chao, hala tuju penyelidikannya adalah pecutan dan penjajaran yang besar untuk peluang pekerjaan pada tahun ke-25 Wei Fangyun: Penyelidik Microsoft di Institut Penyelidikan Asia, dengan minat penyelidikan dalam kecerdasan yang terkandung, penjanaan imej dan AIagen.
- AI 629 2024-07-19 13:12:48
-
- Rangka kerja penaakulan Video-Pemikiran yang pertama ada di sini: Penaakulan video yang komprehensif daripada persepsi kepada kognisi seperti manusia
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini adalah daripada Universiti Nasional Singapura, Universiti Teknologi Nanyang dan Institut Teknologi Harbin. Antaranya, hala tuju penyelidikan Fei Hao ialah pembelajaran pelbagai mod dan model bahasa besar berbilang modal. Wu Shengqiong ialah pelajar kedoktoran di Universiti Nasional Singapura Halatuju penyelidikan utamanya ialah model bahasa besar berbilang modal. Tuan Ji Wei
- AI 570 2024-07-19 13:12:42
-
- Berita terkini! Baidu Wenxin Big Model 4.0: Model parameter terbesar dalam sejarah latihan Wanka, jumpa lagi minggu depan
- Semalam, Cailian News secara eksklusif mendedahkan bahawa Model Wenxin Baidu 4.0 sedang meningkatkan latihannya dan hampir bersedia untuk dikeluarkan. Semua orang sentiasa ingin tahu tentang maklumat Wen Xinyiyan. Hari ini kami juga mendapat lebih banyak berita tentang Wenxin 4.0, yang melibatkan maklumat penting seperti seni bina asas, infrastruktur, set data latihan, kos, dll. Ia mempunyai tahap kredibiliti yang sangat tinggi! Mari kita bercakap tentang kesimpulan teras terlebih dahulu: 1. Pendedahan semalam pada asasnya adalah benar. Pada masa ini difahamkan bahawa Wenxin Large Model 4.0 sebenarnya telah diuji dengan trafik yang kecil. 2. Bilangan parameter Wenxin 4.0 adalah lebih besar daripada semua LLM dengan parameter yang dikeluarkan secara terbuka Ia juga merupakan model besar pertama di China yang dilatih menggunakan kelompok Wanka. 3. Kos penaakulan adalah lebih tinggi daripada Wenxin 3.5, ia dikatakan kira-kira 8-10 kali ganda! (Model besar memang mahal!) Jika
- AI 1085 2024-07-19 12:04:49
-
- Siapa yang lebih besar, 9.11 atau 9.9? Kami sebenarnya menguji 15 model besar, dan lebih separuh daripadanya terbalik.
- Editor Laporan Kuasa Mesin: Yang Wen Model besar masih tidak dapat menyelesaikan masalah matematik yang mudah. Dalam beberapa hari lalu, gesaan untuk menguji sama ada "otak" model besar berfungsi telah menjadi popular - yang manakah lebih besar, 9.11 atau 9.9? Masalah matematik ini, yang walaupun pelajar sekolah rendah boleh menjawab dengan betul, menghalang sekumpulan "wira" dalam industri model berskala besar. Inilah perkaranya. Jurutera gesaan kanan ScaleAI Riley Goodside bertanya kepada GPT-4o perkataan gesaan "9.11dan9.9 - yang mana lebih besar?", tetapi mendapat jawapan "yang dahulu lebih besar". Model besar lain turut terbalik. Pada 17 Julai, kami mengambil 12 model domestik yang besar, ditambah dengan GPT-4o asing
- AI 1892 2024-07-19 11:27:21
-
- Mistral AI dua keluaran berturut-turut: 7B penaakulan matematik khusus, model besar kod seni bina Mamba2
- Netizen ingin tahu sama ada Mathstral boleh menyelesaikan masalah "siapa yang lebih besar, 9.11 atau 9.9?" Semalam, kalangan AI terharu dengan soalan mudah seperti "Siapa yang lebih besar, 9.11 atau 9.9 model bahasa besar termasuk OpenAIGPT-4o, Google Gemini, dll. semuanya terbalik. Ini membolehkan kita melihat bahawa model bahasa besar tidak dapat memahami dan memberikan jawapan yang betul seperti manusia apabila menangani beberapa masalah berangka. Untuk masalah matematik berangka dan kompleks, model khusus adalah lebih khusus. Hari ini, model besar Perancis unicorn MistralAI mengeluarkan model besar 7B "Mathstral" yang memfokuskan pada penaakulan matematik dan penemuan saintifik untuk menyelesaikan data lanjutan yang memerlukan penaakulan logik berbilang langkah yang kompleks.
- AI 458 2024-07-19 09:54:11
-
- Pengurangan kos lebih daripada 90%, 'pembelajaran aktif + aliran kerja eksperimen' mempercepatkan pembangunan pemangkin
- Editor |. Green Luo Sintesis alkohol yang lebih tinggi (HAS) melalui penghidrogenan pemangkin terma syngas kekal sebagai teknologi yang menjanjikan. Pertumbuhan rantai dan keperluan pemasukan CO memerlukan bahan berbilang komponen yang kinetik tindak balas kompleksnya dan ruang kimia luas tidak memenuhi spesifikasi reka bentuk pemangkin. Di sini, penyelidik dari ETH Zurich mencadangkan strategi alternatif untuk menyepadukan pembelajaran aktif ke dalam aliran kerja percubaan, menggunakan siri pemangkin FeCoCuZr sebagai contoh. Rangka kerja bantuan data yang dicadangkan memudahkan navigasi ruang komposisi dan keadaan tindak balas yang luas merentas 86 eksperimen, mengurangkan jejak alam sekitar dan kos lebih daripada 90% berbanding prosedur tradisional. Ia mengenal pasti pemangkin Fe65Co19Cu5Zr11 dengan keadaan tindak balas yang dioptimumkan yang beroperasi secara stabil
- AI 1087 2024-07-19 09:49:21
-
- sangat hebat! Peranti iPhone, iPad dan MacBook lama membentuk kelompok heterogen dan boleh menjalankan Llama 3
- Jika anda mempunyai beberapa peralatan ganti, anda mungkin ingin mencubanya. Kali ini, peralatan perkakasan di tangan anda juga boleh melenturkan ototnya dalam bidang AI. Dengan menggabungkan iPhone, iPad dan Macbook, anda boleh memasang "penyelesaian inferens kelompok heterogen" dan kemudian menjalankan model Llama3 dengan lancar. Perlu dinyatakan bahawa kelompok heterogen ini boleh menjadi sistem Windows, Linux atau sistem iOS, dan sokongan untuk Android akan datang tidak lama lagi. Kelompok heterogen sedang berjalan. Menurut pengarang projek @evilsocket, kluster heterogen ini termasuk iPhone15ProMax, iPadPro, MacBookPro (M1Max), NVIDIA GeFor
- AI 1099 2024-07-19 05:09:59
-
- Perbualan eksklusif dengan Li Yan: Dibiayai oleh Suhua, Jingwei, dan Redpoint, permulaan 'cadangan generatif' pertama |
- Kemanusiaan menyambut kemas kini yang meletup dalam bidang kecerdasan buatan Hampir setiap langkah dalam pengembangan teknologi ke dalam yang tidak diketahui telah menarik perhatian yang menakjubkan. Dalam proses memperluaskan sempadan kecerdasan buatan, inovasi dan perselisihan wujud bersama dalam laluan teknikal trek penting. Pertimbangan dan pilihan perintis teknologi mempengaruhi jejak ramai pengikut. Pada tahun lalu, laman web ini secara eksklusif telah mendahului dalam memperkenalkan syarikat cemerlang seperti Dark Side of the Moon, Teknologi Shengshu, Teknologi Aishi dan Wuwen Core Dome kepada semua orang, meninggalkan mereka dengan "skrip wawancara 10,000 perkataan" pertama dalam dunia Internet. Pada peringkat apabila pelan hala tuju teknikal masih belum tertumpu, kita telah melihat kepimpinan usahawan AI yang benar-benar mempunyai kepercayaan, keberanian dan kognisi yang sistematik. Oleh itu, kami melancarkan "AIPioneers"
- AI 940 2024-07-19 05:03:59
-
- Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami
- Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana
- AI 1010 2024-07-19 01:29:52
-
- Universiti Tsinghua memenangi Anugerah Ujian Kertas + Masa Terbaik, Universiti Shandong menerima penghormatan, dan anugerah SIGIR 2024 diumumkan
- Keputusan Universiti Tsinghua adalah cemerlang. Persidangan Persatuan Komputer Antarabangsa ke-47 mengenai Pencarian Maklumat (ACMSIGIR) akan diadakan di Washington, DC, Amerika Syarikat dari 14 hingga 18 Julai, 2024. Persidangan ini merupakan persidangan akademik tertinggi dalam bidang pencarian maklumat. Sebentar tadi, persidangan itu mengumumkan Anugerah Kertas Terbaik, Naib Johan Kertas Terbaik, Anugerah Sebutan Yang Dihormati Kertas Terbaik, dan Anugerah Ujian Masa. Antaranya, Universiti Tsinghua, Sekolah Kecerdasan Buatan Hillhouse di Universiti Renmin China, dan pasukan Xiaohongshu memenangi kertas terbaik dari Universiti Glasgow dan Universiti Pisa memenangi anugerah sebutan kehormat untuk yang terbaik; kertas telah dianugerahkan kepada Universiti Shandong (Qingdao) ), Universiti Leiden, dan Universiti Amsterdam Anugerah Ujian Masa telah dianugerahkan kepada penyelidik dari Universiti Tsinghua dan Universiti California, Santa Cruz; Seterusnya, mari
- AI 724 2024-07-19 00:06:43
-
- Log masuk ke Sains, pertalian dadah meningkat 37 kali ganda, AI melakukan pengoptimuman kompleks protein dan antibodi tanpa pengawasan
- Editor |. Protein kulit lobak terlibat dalam banyak fungsi biologi seperti komposisi sel, pengecutan otot, pencernaan makanan dan pengenalpastian virus. Untuk mereka bentuk protein yang lebih baik (termasuk antibodi), saintis sering berulang kali memutasi asid amino (unit yang membentuk protein dalam susunan tertentu) pada kedudukan yang berbeza sehingga protein memperoleh fungsi yang diingini. Tetapi terdapat lebih banyak jujukan asid amino daripada butiran pasir di dunia, jadi mencari protein terbaik, dan dengan itu ubat berpotensi terbaik, selalunya menakutkan. Apabila berhadapan dengan cabaran ini, saintis sering membelanjakan berjuta-juta dolar dan menguji versi sistem biologi yang diperkecil dan dipermudahkan. "Ini memerlukan banyak tekaan dan pengesahan."
- AI 833 2024-07-18 22:22:51
-
- Bagaimanakah otak memproses bahasa? Pasukan Princeton menganalisis model Transformer
- Editor |. Kulit Lobak Apabila memproses bahasa, otak menggunakan pengiraan khusus untuk membina makna daripada struktur linguistik yang kompleks. Rangkaian saraf tiruan berdasarkan seni bina Transformer ialah alat penting untuk pemprosesan bahasa semula jadi. Penyelidik Universiti Princeton meneroka model Transformer dan pengkhususan fungsi otak manusia dalam pemprosesan bahasa. Transformer mengira dan menyepadukan maklumat kontekstual antara perkataan melalui litar berstruktur. Walau bagaimanapun, penyelidikan semasa tertumpu terutamanya pada perwakilan dalaman ("benam") yang dijana oleh litar ini. Para penyelidik menganalisis pengiraan litar secara langsung: mereka menyahbina pengiraan ini ke dalam "transformasi" khusus berfungsi yang mengintegrasikan maklumat kontekstual merentas perkataan. Mengeksploitasi peserta
- AI 804 2024-07-18 20:52:41