


40% lebih pantas daripada Transformer! Meta mengeluarkan model Megabait baharu untuk menyelesaikan masalah kehilangan kuasa pengkomputeran
Transformer sudah pasti model paling popular dalam bidang pembelajaran mesin sejak beberapa tahun lalu.
Sejak ia dicadangkan dalam kertas kerja "Perhatian Adalah Semua yang Anda Perlukan" pada tahun 2017, struktur rangkaian baharu ini telah meledak dalam tugas terjemahan utama dan mencipta banyak rekod baharu.
Tetapi Transformer mempunyai kecacatan apabila memproses jujukan bait panjang, iaitu kuasa pengkomputeran hilang dengan serius, dan Meta Keputusan terkini penyelidik dapat menyelesaikan kekurangan ini dengan baik.
Mereka telah melancarkan seni bina model baharu yang boleh menjana lebih daripada 1 juta token merentasi pelbagai format dan mengatasi keupayaan seni bina Transformer sedia ada di sebalik model seperti GPT-4.
Model ini dipanggil "Megabait" dan merupakan seni bina penyahkod berbilang skala yang boleh memproses lebih daripada satu juta bait Urutannya ialah pemodelan boleh dibezakan hujung ke hujung.
Pautan kertas: https://arxiv.org/abs/2305.07185
Mengapa Megabait lebih baik daripada Transformer Anda mesti melihat dahulu kekurangan Transformer.
Kelemahan Transformer
Setakat ini, beberapa jenis model AI generatif berprestasi tinggi, seperti GPT-4 OpenAI dan Bard Google, semuanya berdasarkan Transformer Model seni bina.
Tetapi pasukan penyelidik Meta percaya bahawa seni bina Transformer yang popular mungkin mencapai ambangnya, dengan sebab utamanya ialah dua kelemahan penting yang wujud dalam reka bentuk Transformer:
- Apabila panjang bait input dan output meningkat, kos perhatian diri juga meningkat dengan cepat, seperti muzik input, fail imej atau video biasanya mengandungi beberapa megabait, walau bagaimanapun penyahkod besar (LLM) biasanya hanya menggunakan beberapa ribu token kontekstual
- Rangkaian suapan hadapan membantu model bahasa memahami dan memproses perkataan melalui satu siri operasi dan transformasi matematik, tetapi sukar untuk skala pada sifat asas setiap kedudukan, rangkaian ini beroperasi pada kumpulan watak atau kedudukan secara bebas, menghasilkan jumlah overhed pengiraan yang besar
Apakah kekuatan Megabait
Berbanding dengan Transformer, model Megabait menunjukkan seni bina yang berbeza secara unik yang membahagikan urutan input dan output kepada tampalan dan bukannya token individu.
Seperti yang ditunjukkan di bawah, dalam setiap tampung, model AI tempatan menjana hasil, manakala model global mengurus dan menyelaras keluaran akhir semua tampung.
Pertama, jujukan bait dibahagikan kepada tampung bersaiz tetap, kira-kira serupa dengan token Model ini terdiri daripada tiga bahagian Komposisi:
(1) pembenam tampalan: hanya kodkan tampung
(2) Model global: pengubah autoregresif besar yang mewakili patch input dan output
(3) Model tempatan: model autoregresif kecil yang meramalkan bait dalam patch
Para penyelidik memerhatikan bahawa ramalan bait adalah agak mudah untuk kebanyakan tugas (seperti melengkapkan perkataan yang diberikan beberapa aksara pertama), yang bermaksud bahawa setiap perkataan Rangkaian simpulan yang besar tidak diperlukan dan model yang lebih kecil boleh digunakan untuk ramalan dalaman.
Pendekatan ini menyelesaikan cabaran kebolehskalaan yang lazim dalam model AI hari ini Sistem tampalan model Megabyte membolehkan satu rangkaian suapan ke hadapan untuk dijalankan pada tampung yang mengandungi berbilang token, dengan berkesan menyelesaikan masalah Penskalaan kendiri.
Antaranya, seni bina Megabait telah membuat tiga penambahbaikan utama pada Transformer untuk pemodelan jujukan panjang:
- Perhatian Kendiri Kuadratik (Sub -perhatian diri kuadratik)
Kebanyakan kerja pada model jujukan panjang telah menumpukan pada mengurangkan kos kuadratik perhatian diri, manakala Megabait menguraikan jujukan panjang kepada dua jujukan lebih pendek yang masih mudah untuk mengendalikan walaupun untuk urutan yang panjang.
- Lapisan suapan hadapan setiap tampung
Lebih 98% FLOPS dalam model bersaiz GPT-3 Untuk mengira lapisan suapan hadapan kedudukan, Megabait menggunakan suapan hadapan yang besar lapisan setiap tampalan untuk mencapai model yang lebih besar dan lebih berprestasi pada kos yang sama. Dengan saiz tampung P, penukar garis dasar akan menggunakan lapisan suapan hadapan yang sama dengan parameter m P kali dan Megabait boleh menggunakan lapisan dengan parameter mP sekali pada kos yang sama.
- Paralelisme dalam Penyahkodan
Transformer mesti melakukan semua pengiraan secara bersiri semasa penjanaan kerana setiap kali Input kepada langkah adalah output dari sebelumnya langkah masa, dan dengan menjana perwakilan tampalan secara selari, Megabait membolehkan paralelisme yang lebih besar dalam proses penjanaan.
Sebagai contoh, model Megabait dengan parameter 1.5B menjana jujukan 40% lebih pantas daripada 350MTransformer standard, di samping menambah baik kebingungan apabila menggunakan jumlah pengiraan yang sama untuk latihan.
Megabait jauh mengatasi model lain dan memberikan hasil yang berdaya saing dengan model sota yang dilatih pada subkata
Dalam perbandingan, GPT-4 OpenAI mempunyai had 32,000 token, dan Claude Anthropic mempunyai had 100,000 token.
Selain itu, dari segi kecekapan pengiraan, dalam saiz model tetap dan julat panjang jujukan, Megabait menggunakan lebih sedikit token daripada Transformers dan Linear Transformer dengan saiz yang sama, membenarkan kos pengiraan yang sama Gunakan model yang lebih besar.
Bersama-sama, peningkatan ini membolehkan kami berlatih di bawah belanjawan pengiraan yang sama Lebih besar , model berprestasi lebih baik yang menskalakan kepada jujukan yang sangat panjang dan meningkatkan kelajuan binaan semasa penggunaan.
Apakah rupa masa hadapan
Dengan perlumbaan senjata AI secara rancak, prestasi model semakin kukuh dan parameter semakin tinggi dan lebih tinggi.
Walaupun GPT-3.5 dilatih pada parameter 175B, terdapat spekulasi bahawa GPT-4 yang lebih berkuasa telah dilatih pada 1 trilion parameter.
Ketua Pegawai Eksekutif OpenAI Sam Altman juga baru-baru ini mencadangkan perubahan dalam strategi Beliau berkata bahawa syarikat sedang mempertimbangkan untuk meninggalkan latihan model besar dan menumpukan pada pengoptimuman prestasi lain.
Dia menyamakan masa depan model AI dengan cip iPhone, manakala kebanyakan pengguna tidak tahu tentang spesifikasi teknikal asal.
Penyelidik meta percaya seni bina inovatif mereka datang pada masa yang sesuai, tetapi mengakui terdapat cara lain untuk mengoptimumkan.
Contohnya, model pengekod yang lebih cekap menggunakan teknologi tampalan, model penyahkodan yang menguraikan jujukan kepada blok yang lebih kecil dan pramemproses jujukan menjadi token termampat, dsb., dan boleh melanjutkan keupayaan Transformer Architectural sedia ada untuk membina model generasi akan datang.
Bekas pengarah Tesla AI Andrej Karpathy turut menyatakan pandangannya mengenai kertas ini Dia menulis di Twitter:
Ini sangat menjanjikan dan semua orang seharusnya berharap kami boleh membuang tokenisasi dalam model besar dan menghapuskan keperluan untuk jujukan bait yang terlalu panjang itu.
Atas ialah kandungan terperinci 40% lebih pantas daripada Transformer! Meta mengeluarkan model Megabait baharu untuk menyelesaikan masalah kehilangan kuasa pengkomputeran. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

FP8 dan ketepatan pengiraan titik terapung yang lebih rendah bukan lagi "paten" H100! Lao Huang mahu semua orang menggunakan INT8/INT4, dan pasukan Microsoft DeepSpeed memaksa diri mereka menjalankan FP6 pada A100 tanpa sokongan rasmi daripada Nvidia. Keputusan ujian menunjukkan bahawa kaedah baharu TC-FPx FP6 kuantisasi pada A100 adalah hampir atau kadangkala lebih pantas daripada INT4, dan mempunyai ketepatan yang lebih tinggi daripada yang terakhir. Selain itu, terdapat juga sokongan model besar hujung ke hujung, yang telah bersumberkan terbuka dan disepadukan ke dalam rangka kerja inferens pembelajaran mendalam seperti DeepSpeed. Keputusan ini juga mempunyai kesan serta-merta pada mempercepatkan model besar - di bawah rangka kerja ini, menggunakan satu kad untuk menjalankan Llama, daya pemprosesan adalah 2.65 kali lebih tinggi daripada dua kad. satu
