lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Daripada logam kosong kepada model besar dengan 70 bilion parameter, berikut ialah tutorial dan skrip sedia untuk digunakan
- Kami tahu bahawa LLM dilatih pada kelompok komputer berskala besar menggunakan data besar-besaran Tapak ini telah memperkenalkan banyak kaedah dan teknologi yang digunakan untuk membantu dan menambah baik proses latihan LLM. Hari ini, perkara yang ingin kami kongsikan ialah artikel yang mendalami teknologi asas dan memperkenalkan cara menukar sekumpulan "logam kosong" tanpa sistem pengendalian pun menjadi gugusan komputer untuk latihan LLM. Artikel ini datang daripada Imbue, sebuah permulaan AI yang berusaha untuk mencapai kecerdasan am dengan memahami cara mesin berfikir. Sudah tentu, mengubah sekumpulan "logam kosong" tanpa sistem pengendalian menjadi gugusan komputer untuk latihan LLM bukanlah proses yang mudah, penuh dengan penerokaan dan percubaan dan kesilapan, tetapi Imbue akhirnya berjaya melatih LLM dengan 70 bilion parameter proses terkumpul
- AI 783 2024-07-24 20:13:31
-
- Bagaimana untuk mencipta model sumber terbuka yang boleh mengalahkan GPT-4o? Mengenai Llama 3.1 405B, Meta ditulis dalam kertas ini
- Selepas "kebocoran tidak sengaja" dua hari lebih awal, Llama 3.1 akhirnya dikeluarkan secara rasmi malam tadi. Llama3.1 memanjangkan panjang konteks kepada 128K dan mempunyai tiga versi: 8B, 70B dan 405B, sekali lagi secara bersendirian meningkatkan standard kompetitif trek model besar. Bagi komuniti AI, kepentingan Llama3.1405B yang paling penting ialah ia menyegarkan had atas keupayaan model asas sumber terbuka, pegawai Meta berkata dalam satu siri tugasan, prestasinya adalah setanding dengan yang terbaik tertutup model sumber. Jadual di bawah menunjukkan prestasi model siri Llama3 semasa pada penanda aras utama. Ia boleh dilihat bahawa prestasi model 405B adalah sangat hampir dengan GPT-4o. Pada masa yang sama, Meta mengumumkan "TheLlam"
- AI 1085 2024-07-24 18:42:03
-
- Prestasi ini 11 kali lebih kuat Pasukan Georgia Tech dan Tsinghua menggunakan AI untuk membantu dalam menemui bahan storan tenaga baharu, yang diterbitkan dalam sub-jurnal Nature.
- Editor |. Kapasitor elektrostatik kulit lobak ialah komponen penyimpanan tenaga utama dalam sistem kuasa termaju dalam bidang pertahanan, penerbangan, tenaga dan pengangkutan. Ketumpatan tenaga ialah angka merit kapasitor elektrostatik dan ditentukan terutamanya oleh pilihan bahan dielektrik. Kebanyakan bahan dielektrik polimer gred industri ialah poliolefin fleksibel atau aromatik tegar yang menawarkan sama ada ketumpatan tenaga tinggi atau kestabilan terma yang tinggi, tetapi bukan kedua-duanya. Di sini, pasukan penyelidik dari Institut Teknologi Georgia, Universiti Connecticut dan Universiti Tsinghua menggunakan kecerdasan buatan (AI), kimia polimer dan kejuruteraan molekul untuk menemui salah satu siri polynorbornene dan polyimide
- AI 447 2024-07-24 17:42:52
-
- Rangkaian saraf juga mempunyai kesedaran spatial! Belajar membuat peta dalam Minecraft, diterbitkan dalam sub-majalah Nature
- Ini adalah kali pertama manusia menunjukkan bahawa rangkaian saraf boleh mencipta peta mereka sendiri. Bayangkan anda berada di bandar yang pelik Walaupun pada mulanya persekitaran di sekeliling anda tidak dikenali, anda boleh menerokai sekeliling dan akhirnya melukis peta persekitaran dalam otak anda, yang merangkumi bangunan, jalan, papan tanda, dll. yang berinteraksi antara satu sama lain. hubungan kedudukan antara mereka. Keupayaan untuk membina peta spatial dalam otak ini mendasari jenis kognisi peringkat tinggi pada manusia: contohnya, bahasa berteori untuk dikodkan oleh struktur seperti peta dalam otak. Walau bagaimanapun, walaupun kecerdasan buatan dan rangkaian saraf yang paling maju tidak dapat membina peta sedemikian daripada udara nipis. "Ada rasa bahawa walaupun yang paling maju
- AI 701 2024-07-24 09:38:12
-
- Model sumber terbuka pertama yang melepasi tahap GPT4o! Llama 3.1 bocor: 405 bilion parameter, pautan muat turun dan kad model tersedia
- Sediakan GPU anda! Llama3.1 akhirnya muncul, tetapi sumbernya bukan Meta rasmi. Hari ini, berita bocor versi baharu model besar Llama menjadi tular di Reddit Selain model asas, ia juga termasuk hasil penanda aras 8B, 70B dan parameter maksimum 405B. Rajah di bawah menunjukkan hasil perbandingan setiap versi Llama3.1 dengan OpenAIGPT-4o dan Llama38B/70B. Ia boleh dilihat bahawa walaupun versi 70B melebihi GPT-4o pada pelbagai penanda aras. Sumber imej: https://x.com/mattshumer_/status/1815444612414087294 Jelas sekali, versi 3.1 daripada 8B dan 70
- AI 1295 2024-07-23 20:51:33
-
- ECCV 2024|BlazeBVD, kaedah umum untuk penyahkelipan video buta, ada di sini, dicadangkan bersama oleh Meitu dan Universiti Kebangsaan Sains dan Teknologi China
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dalam beberapa tahun kebelakangan ini, ekosistem video pendek telah muncul dengan cepat, dan alat kreatif dan penyuntingan di sekitar video pendek sentiasa muncul, alat penyuntingan video mudah alih profesional yang dimiliki oleh Syarikat Meitu , mendahului dengan keupayaan pemulihan kualiti video asalnya, digunakan di dalam dan luar negara
- AI 438 2024-07-23 15:13:34
-
- Syarikat robot pintar yang dilaburkan oleh Xiaomi dan gergasi kimpalan secara rasmi mengumumkan kerjasama strategik
- Baru-baru ini, "Xiaoyu Intelligent Manufacturing", syarikat perisikan terwujud pertama yang dilaburkan oleh Kumpulan Xiaomi, telah mencapai kerjasama strategik utama dengan Tangshan Panasonic, usaha sama gergasi industri Panasonic, yang bertujuan untuk bersama-sama membangunkan robot kimpalan pintar model besar termaju. Pada 18 Julai, majlis menandatangani kerjasama strategik antara Tangshan Panasonic Industrial Robot Co., Ltd. (selepas ini dirujuk sebagai "Tangshan Panasonic") dan Beijing Xiaoyu Intelligent Manufacturing Technology Co., Ltd. (selepas ini dirujuk sebagai "Xiaoyu Intelligent Manufacturing" ) telah berjaya disiapkan di ibu pejabat Tangshan Panasonic. Pengurus besar Panasonic Industrial Machinery Co., Ltd. Hashiyama Yuichiro, timbalan pengurus besar eksekutif Liu Zheng, pengasas dan Ketua Pegawai Eksekutif Xiaoyu Intelligent Manufacturing Qiao Zhongliang, pengasas bersama dan naib presiden Li Chuan dan pemimpin lain menghadiri majlis menandatangani perjanjian tersebut untuk kerjasama ini hantar
- AI 476 2024-07-23 14:50:54
-
- Penjanaan video tanpa had, perancangan dan membuat keputusan, penyebaran paksa penyepaduan ramalan token seterusnya dan penyebaran jujukan penuh
- Pada masa ini, model bahasa berskala besar autoregresif menggunakan paradigma ramalan token seterusnya telah menjadi popular di seluruh dunia Pada masa yang sama, sejumlah besar imej dan video sintetik di Internet telah menunjukkan kepada kami kuasa model penyebaran. Baru-baru ini, pasukan penyelidik di MITCSAIL (salah seorang daripadanya ialah Chen Boyuan, pelajar PhD di MIT) berjaya menyepadukan keupayaan berkuasa model resapan jujukan penuh dan model token seterusnya, dan mencadangkan paradigma latihan dan pensampelan: Diffusion Forcing (DF). ). Tajuk kertas: DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Alamat kertas: https:/
- AI 1164 2024-07-23 14:05:21
-
- Selepas 'Alibaba Star', Alibaba Taotian memulakan semula pengambilan bakat teknikal terkemuka, dengan gaji tahunan sebanyak satu juta sebagai standard
- Pada 22 Julai, "Program T-Star untuk Bakat Teratas" Alibaba Taotian Group telah dilancarkan secara rasmi. Projek ini merekrut pakar persaingan, akademik dan praktikal dari bidang teknologi termaju dunia untuk menyediakan "remaja genius" ini dengan topik teknikal teratas, sumber pengkomputeran, sumber platform R&D dan kakitangan terkemuka yang bermula dengan gaji tahunan sebanyak satu juta dan dilatih secara eksklusif oleh "bos besar" ruang berkembang. Wartawan itu mengetahui bahawa rancangan T-Star adalah kesinambungan daripada rancangan "Alibaba Star" yang bermula pada 2011 dan tujuannya adalah untuk menarik bakat teknikal termuda dan terkemuka untuk menyertai. Pada masa lalu, kebanyakan orang yang diambil adalah peringkat Ph.D dan naib presiden
- AI 900 2024-07-22 21:20:23
-
- ICML 2024 Oral |. Adakah DPO lebih sesuai untuk LLM daripada pendedahan terbaru pasukan Tsinghua Wuyi
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Wu Yi ialah penolong profesor di Institut Maklumat Antara Disiplin di Universiti Tsinghua , interaksi manusia-komputer, dan pembelajaran robot. Mendapat PhD dari University of California, Berkeley, pada 2019, belajar di bawah Stu
- AI 402 2024-07-22 18:41:23
-
- Piawaian baharu untuk pengimejan AI, hanya 1% daripada data asal boleh mencapai prestasi terbaik, model asas perubatan am yang diterbitkan dalam sub-jurnal Nature
- Editor |. Model asas yang telah dilatih secara besar-besaran oleh Cabbage Leaf telah mencapai kejayaan besar dalam bidang bukan perubatan. Walau bagaimanapun, latihan model ini selalunya memerlukan set data yang besar dan komprehensif, berbeza dengan set data yang lebih kecil dan lebih khusus yang biasa dalam pengimejan bioperubatan. Penyelidik di Institut Fraunhofer untuk Perubatan Digital MEVIS di Jerman mencadangkan strategi pembelajaran pelbagai tugas yang memisahkan bilangan tugas latihan daripada keperluan ingatan. Mereka melatih model pra-latihan bioperubatan universal (UMedPT) pada pangkalan data berbilang tugas (termasuk tomografi, mikroskop dan imej X-ray) dan menggunakan pelbagai strategi pelabelan seperti klasifikasi, segmentasi dan
- AI 1061 2024-07-22 17:38:00
-
- ECCV 2024 |. Untuk meningkatkan prestasi tugas pengesanan GPT-4V dan Gemini, anda memerlukan paradigma segera ini
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini adalah dari Universiti Zhejiang, Makmal Kepintaran Buatan Shanghai, Universiti China Hong Kong, Universiti Sydney dan Universiti Oxford. Senarai pengarang: Wu Yixuan, Wang Yizhou, Tang Shixiang, Wu Wenhao, He Tong, WanliOuyang, Philip Torr, Jia
- AI 605 2024-07-22 17:28:30
-
- KDD 2024|Pasukan Hong Kong Rhubarb Chao menganalisis dengan mendalam 'sempadan tidak diketahui' model besar dalam bidang pembelajaran mesin graf
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Pengarang utama artikel ini adalah daripada Makmal Perisikan Data (DataIntelligenceLab) Universiti Hong Kong. Antara pengarangnya, pengarang pertama Ren Xubin dan pengarang kedua Tang Jiabin adalah kedua-duanya pelajar kedoktoran tahun pertama di Sekolah Sains Data di Universiti Hong Kong, dan penyelia mereka ialah Da
- AI 1194 2024-07-22 16:54:34
-
- Universiti Sains dan Teknologi China dan Huawei Noah mencadangkan Undang-undang Entropi untuk mendedahkan hubungan antara prestasi model besar, kadar pemampatan data dan kehilangan latihan.
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Kerja ini telah disiapkan oleh pasukan IEEE Fellow Chen Enhong dari Makmal Kecerdasan Kognitif Kebangsaan di Universiti Sains dan Teknologi China dan Makmal Bahtera Nuh Huawei. Pasukan Profesor Chen Enhong terlibat secara mendalam dalam bidang perlombongan data dan pembelajaran mesin, dan telah menerbitkan banyak kertas kerja dalam jurnal dan persidangan Google Scholar
- AI 837 2024-07-22 16:39:35
-
- Berat, kod dan set data semuanya adalah sumber terbuka, dan prestasinya melebihi model kecil Apple di sini
- Adakah model kecil menjadi trend? Minggu ini, OpenAI melancarkan model kecil GPT-4o-mini, dan trek model kecil dilancarkan secara rasmi. Baru-baru ini menyertai lagu ini ialah Apple. Baru-baru ini, Apple, sebagai salah satu institusi penyelidikan projek DataComp-LM (DCLM), mengeluarkan model sumber terbuka DCLM-7B pada HuggingFace. Prestasi model telah mengatasi Mistral-7B dan menghampiri model sumber terbuka terkemuka lain, termasuk Llama3 dan Gemma. Pautan kertas: https://arxiv.org/pdf/2406.11794 Pautan projek: https://huggingface.co/apple/DCLM-7
- AI 515 2024-07-22 16:18:40