lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Penyematan molekul Llama lebih baik daripada GPT, bolehkah LLM memahami molekul? Meta mengalahkan OpenAI dalam pusingan ini
- Editor |. Model bahasa Besar Kulit Lobak (LLM) seperti OpenAI's GPT dan MetaAI's Llama semakin dikenali untuk potensi mereka dalam bidang cheminformatics, terutamanya dalam memahami Sistem Input Talian Molekul Mudah (SMILES). LLM ini juga boleh menyahkod rentetan SMILES kepada perwakilan vektor. Penyelidik di Universiti Windsor di Kanada membandingkan prestasi GPT dan Llama dengan model terlatih pada SMILES untuk membenamkan rentetan SMILES dalam tugas hiliran, memfokuskan pada dua aplikasi utama: ramalan sifat molekul dan ramalan interaksi dadah-ubat. Kajian menggunakan "Canlargelanguagemod"
- AI 737 2024-07-16 13:33:18
-
- Buat pertama kalinya, pengaktifan saraf bahasa telah disetempatkan ke peringkat selular
- Peta resolusi tertinggi bagi neuron pengekodan perkataan yang bermakna setakat ini ada di sini. 1. Manusia boleh mengakses makna yang kaya dan halus melalui bahasa, yang penting untuk komunikasi manusia. Walaupun peningkatan pemahaman tentang kawasan otak yang menyokong pemprosesan bahasa dan semantik, masih banyak yang tidak diketahui tentang derivasi neurosemantik di peringkat selular. Baru-baru ini, kertas penyelidikan yang diterbitkan dalam jurnal Nature menemui perwakilan kortikal halus maklumat semantik oleh neuron tunggal dengan menjejaki aktiviti neuron semasa pemprosesan pertuturan semula jadi. Makalah itu bertajuk "Pengekodan semantik untuk pemahaman bahasa pada resolusi sel tunggal." 1. Alamat kertas: https://www.nature.com/articles/s41586-024-07643-
- AI 919 2024-07-16 12:12:59
-
- Ahli akademik E Weinan mengetuai kerja baharu: Model besar bukan sahaja mempunyai storan RAG dan parameter, tetapi juga jenis memori ketiga
- 2.4B Memory3 mencapai prestasi yang lebih baik daripada model LLM dan RAG yang lebih besar. Dalam beberapa tahun kebelakangan ini, model bahasa besar (LLM) telah mendapat perhatian yang tidak pernah berlaku sebelum ini kerana prestasinya yang luar biasa. Walau bagaimanapun, kos latihan dan inferens LLM adalah tinggi, dan orang ramai telah cuba mengurangkan kos melalui pelbagai kaedah pengoptimuman. Dalam artikel ini, penyelidik dari Institut Penyelidikan Inovasi Algoritma Shanghai, Universiti Peking dan institusi lain telah diilhamkan oleh hierarki memori otak manusia Mereka mengurangkan masalah ini dengan melengkapkan LLM dengan memori eksplisit (format memori yang lebih murah daripada parameter model dan RAG. kos. Dari segi konsep, LLM boleh menikmati saiz parameter yang lebih kecil, kos latihan dan kos inferens kerana kebanyakan pengetahuannya dieksplisitkan ke dalam ingatan eksplisit. Alamat kertas: https:
- AI 706 2024-07-16 11:57:51
-
- Pasukan perisikan Universiti Peking mencadangkan navigasi dipacu permintaan untuk menyelaraskan keperluan manusia dan menjadikan robot lebih cekap
- Bayangkan jika robot dapat memahami keperluan anda dan bekerja keras untuk memenuhinya, bukankah itu bagus? Jika anda mahu robot membantu anda, anda biasanya perlu memberikan arahan yang lebih tepat, tetapi pelaksanaan sebenar arahan itu mungkin tidak sesuai. Jika kita mempertimbangkan persekitaran sebenar, apabila robot diminta untuk mencari item tertentu, item itu mungkin sebenarnya tidak wujud dalam persekitaran semasa, dan robot tidak dapat mencarinya tetapi adakah mungkin terdapat item lain dalam persekitaran, yang manakah berkaitan dengan pengguna? Adakah item yang diminta mempunyai fungsi yang serupa dan juga boleh memenuhi keperluan pengguna? Ini adalah faedah menggunakan "keperluan" sebagai arahan tugas. Baru-baru ini, pasukan Universiti Peking Dong Hao mencadangkan tugas navigasi baharu—navigasi dipacu permintaan (
- AI 1165 2024-07-16 11:27:39
-
- Gergasi di belakang tabir membawa AI industri ke peringkat seterusnya
- Tiada raja baharu dalam AI perindustrian Ia cerah tetapi tidak cemerlang, dan perairannya tenang dan dalam. Untuk mengatakan bahawa AI generatif adalah raja topik hari ini, tiada siapa yang akan membantah. Dengan beberapa perkataan mudah, Terracotta Warriors boleh "dibangkitkan" untuk menyanyikan Qin Opera, dan Trump boleh muncul dalam rancangan bual bicara. Apabila nilai emosi penuh, adakah anda berani membayangkan perkara yang lebih sejuk, seperti dapat mencipta apa yang anda mahu hanya dengan kata-kata anda? AI bukan sahaja boleh menjana video, tetapi juga membina ruang maya yang mengasyikkan dan sangat simulasi yang mengikut undang-undang fizikal Ia hanya memerlukan suara semula jadi untuk memasukkan arahan, dan ia boleh menukarnya kepada bahasa industri profesional, dan kemudian menyerahkannya kepada perisikan. daripada kilang sebenar Barisan pengeluaran kimia menjadi "perkara sebenar". Adakah anda berani membayangkan sesuatu yang lebih hebat anda boleh mencipta apa yang anda mahukan dengan hanya kata-kata anda! Masa depan yang begitu indah mungkin kelihatan jauh, tetapi menurut gambaran Siemens, ia tidak lagi di udara.
- AI 1248 2024-07-16 09:50:46
-
- Universiti Peking melancarkan model robot pelbagai mod baharu! Penaakulan dan operasi yang cekap untuk senario umum dan robotik
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Artikel ini telah disiapkan oleh HMILab. Bergantung pada dua platform utama Pusat Penyelidikan Kejuruteraan Kebangsaan untuk Video dan Teknologi Visual Universiti Peking dan Makmal Utama Kebangsaan Pemprosesan Maklumat Multimedia, HMILab telah lama terlibat dalam penyelidikan ke arah pembelajaran mesin, pembelajaran pelbagai mod dan kecerdasan yang terkandung. Karya ini No.
- AI 512 2024-07-16 03:51:40
-
- Kertas penskoran tinggi ICML 2024 |
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Pengenalan kepada pengarang pertama artikel ini: Zhang Yihua: pelajar kedoktoran tahun ketiga di Jabatan Sains Komputer di Michigan State University, di bawah seliaan Profesor Sijia Liu Arah penyelidikan utamanya ialah soal keselamatan, privasi dan kecekapan model besar. Li Pingzhi: Lulus dari Universiti Sains dan Teknologi China dan akan
- AI 1094 2024-07-16 03:17:30
-
- Dengan ketepatan yang setanding dengan AlphaFold, kaedah AI EPFL memadankan interaksi protein daripada jujukan
- 1. Kepentingan interaksi protein Protein adalah bahan binaan kehidupan dan mengambil bahagian dalam hampir semua proses biologi. Memahami cara protein berinteraksi adalah penting untuk menerangkan kerumitan fungsi selular. 2. Kaedah baharu: memasangkan jujukan protein yang berinteraksi Pasukan Anne-Florence Bitbol di Ecole Polytechnique Fédérale de Lausanne (EPFL) mencadangkan kaedah untuk memasangkan jujukan protein yang berinteraksi. Kaedah ini mengeksploitasi kuasa model bahasa protein yang dilatih pada pelbagai penjajaran jujukan. 3. Kelebihan kaedah Kaedah ini berfungsi dengan baik untuk set data yang kecil dan boleh meningkatkan ramalan struktur kompleks protein melalui kaedah yang diselia. 4. Hasil penyelidikan diterbitkan sebagai "Pairinginteractingprotein
- AI 969 2024-07-16 01:18:30
-
- Bermula dengan pembelajaran mendalam 12 tahun yang lalu, Karpathy mencetuskan gelombang kenangan era AlexNet, dan LeCun, Goodfellow, dsb. semuanya berakhir
- Tanpa diduga, 12 tahun telah berlalu sejak revolusi pembelajaran mendalam dimulakan oleh AlexNet pada tahun 2012. Kini, kita juga telah memasuki era model besar. Baru-baru ini, jawatan oleh saintis penyelidikan AI terkenal Andrej Karpathy menyebabkan ramai lelaki besar yang terlibat dalam gelombang revolusi pembelajaran mendalam ini teringat. Daripada pemenang Anugerah Turing Yann LeCun kepada Ian Goodfellow, bapa GAN, semua orang mengimbau masa lalu. Setakat ini, siaran itu telah mendapat 630,000+ tontonan. Dalam siaran itu, Karpathy menyebut: Fakta menarik ialah ramai orang mungkin pernah mendengar tentang detik ImageNet/AlexNet pada tahun 2012 dan revolusi pembelajaran mendalam yang dimulakan. Walau bagaimanapun, mungkin terdapat sedikit
- AI 1154 2024-07-16 01:08:30
-
- AlphaFold 3 dilancarkan, meramalkan secara menyeluruh interaksi dan struktur protein dan semua molekul hidupan, dengan ketepatan yang jauh lebih tinggi berbanding sebelum ini
- Editor |. Kulit Lobak Sejak pengeluaran AlphaFold2 yang berkuasa pada tahun 2021, saintis telah menggunakan model ramalan struktur protein untuk memetakan pelbagai struktur protein dalam sel, menemui ubat dan melukis "peta kosmik" setiap interaksi protein yang diketahui. Baru-baru ini, Google DeepMind mengeluarkan model AlphaFold3, yang boleh melakukan ramalan struktur bersama untuk kompleks termasuk protein, asid nukleik, molekul kecil, ion dan sisa yang diubah suai. Ketepatan AlphaFold3 telah dipertingkatkan dengan ketara berbanding dengan banyak alat khusus pada masa lalu (interaksi protein-ligan, interaksi asid protein-nukleik, ramalan antibodi-antigen). Ini menunjukkan bahawa dalam satu rangka kerja pembelajaran mendalam yang bersatu, adalah mungkin untuk dicapai
- AI 787 2024-07-16 00:08:11
-
- Ujian sebenar model pertuturan AI terkini: meminta Trump dan Ding Zhen untuk mengatakan pemutar lidah boleh dikatakan palsu, tetapi ayat-ayatnya dipecahkan.
- Editor Laporan Kuasa Mesin: Yang Wen, model suara AI baharu ini FishSpeech, meniru bunyi suara itu. Baru-baru ini, trek suara AI tiba-tiba menjadi meriah. Lebih sebulan yang lalu, ChatTTS, yang dikenali sebagai "tahap siling TTS suara sumber terbuka", menjadi popular. Seberapa popularnya? Dalam masa tiga hari sahaja, ia mengumpul trafik 9.2kStar di GitHub, dan pernah mendahului senarai Arah Aliran GitHub dan terus mendominasi senarai itu. Tidak lama kemudian, Byte turut melancarkan projek serupa, Seed-TTS, dengan slogan yang sama iaitu "menjana pertuturan semula jadi dan sebenar." Dalam beberapa hari lepas, pemain baharu telah memasuki trek ini - FishSpeech. Dilaporkan bahawa selepas 150,000 jam latihan data, model itu telah menjadi mahir dalam
- AI 573 2024-07-15 20:44:38
-
- Semua orang boleh menjadi jurutera segera! Baharu dalam Claude: Jana, uji dan nilai gesaan dengan satu klik
- Jika anda tidak tahu cara menulis gesaan, sila semaknya. Apabila membina aplikasi AI, kualiti segera mempunyai kesan yang ketara pada hasil. Walau bagaimanapun, menghasilkan gesaan berkualiti tinggi adalah mencabar dan memerlukan penyelidik mempunyai pemahaman yang mendalam tentang keperluan aplikasi dan kepakaran dalam model bahasa berskala besar. Untuk mempercepatkan pembangunan dan meningkatkan hasil, syarikat permulaan AI Anthropic telah memperkemas proses ini untuk memudahkan pengguna membuat gesaan berkualiti tinggi. Khususnya, penyelidik menambah fungsi baharu pada AnthropicConsole untuk menjana, menguji dan menilai gesaan. Jurutera segera antropotik Alex Albert berkata: Ini adalah hasil daripada banyak kerja yang telah mereka lakukan sejak beberapa minggu lalu, dan kini C
- AI 747 2024-07-15 20:13:31
-
- Memfokuskan pada pengalaman yang diperibadikan, mengekalkan pengguna bergantung sepenuhnya pada AIGC?
- 1. Sebelum membeli sesuatu produk, pengguna akan mencari dan melayari ulasan produk di media sosial. Oleh itu, menjadi semakin penting bagi syarikat untuk memasarkan produk mereka di platform sosial. Tujuan pemasaran adalah untuk: Menggalakkan penjualan produk Mewujudkan imej jenama Meningkatkan kesedaran jenama Menarik dan mengekalkan pelanggan Akhirnya meningkatkan keuntungan syarikat Model besar mempunyai pemahaman dan keupayaan penjanaan yang sangat baik dan boleh menyediakan pengguna dengan maklumat peribadi dengan menyemak imbas dan menganalisis cadangan kandungan data pengguna. Dalam isu keempat "AIGC Experience School", dua tetamu akan membincangkan secara mendalam peranan teknologi AIGC dalam meningkatkan "kadar penukaran pemasaran". Masa siaran langsung: 10 Julai, 19:00-19:45 Topik siaran langsung: Untuk mengekalkan pengguna, bagaimana AIGC meningkatkan kadar penukaran melalui pemperibadian? Episod keempat program itu mengundang dua orang penting
- AI 726 2024-07-15 18:48:52
-
- Analisis mendalam tentang konflik pengetahuan dalam model besar RAG, diterbitkan bersama oleh Universiti Tsinghua West Lake di Hong Kong dan Cina
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini ialah Xu Rongwu, pelajar sarjana tahun kedua dan Qi Zehan, pelajar kedoktoran tahun pertama di Sekolah Maklumat Antara Disiplin di Universiti Tsinghua juga merupakan pengarang utama ulasan ini. Dengan perkembangan pesat kecerdasan buatan dan teknologi model berskala besar, penjanaan yang dipertingkatkan semula (Retrieval-A
- AI 859 2024-07-15 18:44:12
-
- Selepas menukar kepada lebih daripada 30 dialek, kami gagal lulus ujian model pertuturan besar China Telecom
- Tidak kira dari bandar mana anda berasal, saya percaya anda mempunyai "dialek kampung halaman" anda sendiri dalam ingatan anda: Dialek Wu lembut dan halus, dialek Guanzhong ringkas dan tebal, dialek Sichuan lucu, Kantonis pelik dan tidak terkawal... Dalam erti kata, dialek bukan sahaja Tabiat bahasa, tetapi juga hubungan emosi dan identiti budaya. Banyak perkataan baharu yang kita temui semasa melayari Internet berasal daripada dialek tempatan dari pelbagai tempat. Sudah tentu, kadangkala dialek juga menjadi "penghalang" kepada komunikasi. Dalam kehidupan sebenar, kita sering melihat "ayam bercakap seperti itik" disebabkan oleh dialek, seperti ini: Jika anda memberi perhatian kepada trend terkini dalam kalangan teknologi, anda akan tahu bahawa pembantu suara AI semasa telah mencapai tahap "sebenar -masa balas". Malah lebih pantas daripada reaksi manusia. Lebih-lebih lagi, AI telah dapat sepenuhnya
- AI 1128 2024-07-15 17:44:57