Jadual Kandungan
Soalan: Apakah yang perlu saya lakukan jika saiz model melebihi kapasiti GPU? " > Soalan: Apakah yang perlu saya lakukan jika saiz model melebihi kapasiti GPU?
Jom mulakan! " >Jom mulakan!
Inti masalah" >Inti masalah
Pengumpulan kecerunan/pengumpulan mikro" >Pengumpulan kecerunan/pengumpulan mikro
Pengoptimum 8-bit " >Pengoptimum 8-bit
Rumah Peranti teknologi AI Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

Apr 13, 2023 am 08:10 AM
data teknologi Model

Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

Soalan: Apakah yang perlu saya lakukan jika saiz model melebihi kapasiti GPU?

Artikel ini diilhamkan daripada kursus "Sistem Pembelajaran Dalam Cekap" yang diajar oleh Institut Analisis Data Yandex.

Pengetahuan awal: Adalah diandaikan bahawa pembaca sudah memahami prinsip kerja hantaran hadapan dan hantaran ke belakang rangkaian neural, Ini penting untuk memahami kandungan artikel ini. Artikel ini menggunakan PyTorch sebagai rangka kerja.

Jom mulakan!

Apabila cuba menggunakan model besar (aka gpt-2-xl) dengan lebih 500 juta parameter dan sumber GPU anda terhad dan anda tidak boleh menukarnya Apa yang perlu saya lakukan jika ia dipasang untuk dijalankan pada GPU, atau saiz kelompok yang ditakrifkan dalam kertas tidak boleh dicapai semasa latihan model? Mungkin anda boleh berputus asa dan menggunakan versi model yang lebih ringan, atau mengurangkan saiz kelompok latihan, supaya anda tidak akan mendapat hasil latihan yang diterangkan dalam kertas.

Namun, terdapat beberapa teknik yang boleh membantu menyelesaikan masalah di atas.

Mari kita bincangkan beberapa kaedah, iaitu cara menggunakan kaedah ini untuk memperhalusi model GPT-2-XL dengan 1.5 bilion parameter.

Inti masalah

Pertama, mari kita fahami isu memori GPU yang diperlukan untuk memuatkan model ke dalam bahan GPU.

Dengan mengandaikan bahawa model mempunyai parameter FP32 (32-bit floating point), model ini perlu dilatih pada GPU, contohnya, menjalankan pengoptimum Adam .

Melalui pengiraan, hasilnya mengejutkan.

Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

Anggap anda sudah mempunyai NVIDIA dengan memori 12 GB GeForce RTX 3060. Pertama, parameter 1e9 FP32 menggunakan lebih kurang 4 GB memori GPU.

Begitu juga, jumlah memori yang sama akan dikhaskan untuk kecerunan. Oleh itu, sejumlah 8 GB memori telah dikhaskan Memandangkan latihan belum bermula dan pengoptimum belum dimuatkan, memuatkan pengoptimum juga memerlukan sejumlah memori. Pengoptimum Adam perlu menyimpan sandaran pertama dan kedua untuk setiap parameter, yang memerlukan 8 GB memori tambahan. Mengira ini, anda mesti mempunyai kira-kira 16 GB memori GPU untuk memuatkan model dengan betul ke GPU Dalam contoh ini, GPU hanya mempunyai 12 GB memori percuma. Nampak teruk kan?

Walau bagaimanapun, terdapat beberapa cara untuk cuba menyelesaikan masalah ini, berikut adalah yang berkaitan:

  • Pengumpulan kecerunan/pengumpulan mikro;
  • Titik pemeriksaan kecerunan; >
  • Kerja saluran paip; 🎜>
  • Latihan ketepatan campuran; 🎜>Memori pemuatan;
  • Pengoptimum 8-bit kuantisasi.
  • Seterusnya, teknologi ini akan diterangkan secara terperinci.
  • Mula
  • Soalan: Model lebih besar daripada kapasiti GPU, apakah yang perlu saya lakukan?

    • Mod ringkas: Tidak dapat menyesuaikan diri dengan saiz kelompok 1
    • Mod profesional: parameter tidak boleh disesuaikan sama ada

    Ikhtisar

    Jika model lebih besar daripada kapasiti GPU, walaupun menetapkan saiz kelompok kepada 1 tidak mencukupi, jadi apa yang perlu saya lakukan? Terdapat penyelesaian, iaitu menetapkan titik pemeriksaan kecerunan Mari kita lihat konsep ini. Untuk rangkaian neural suapan mudah yang mengandungi n lapisan, rajah pengiraan kecerunan adalah seperti berikut:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Pengaktifan lapisan rangkaian saraf sepadan dengan nod yang ditandakan dengan f, dan semasa hantaran ke hadapan, semua nod ini dikira mengikut turutan. Kecerunan kehilangan yang sepadan dengan pengaktifan dan parameter lapisan ini diwakili oleh nod berlabel b. Semasa hantaran ke belakang, semua nod ini dinilai dalam susunan terbalik. Hasil pengiraan nod f digunakan untuk mengira nod b, jadi semua nod f disimpan dalam ingatan selepas lulus ke hadapan. Hanya apabila perambatan belakang berjalan cukup jauh untuk mengira semua kebergantungan nod f, ia boleh dipadamkan daripada ingatan. Ini bermakna: memori yang diperlukan untuk perambatan balik mudah berkembang secara linear dengan bilangan lapisan rangkaian saraf n.

    Berikut ialah susunan pengiraan nod ini Lingkaran berlorek ungu menunjukkan nod yang perlu disimpan ke dalam memori pada masa tertentu.

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Gradient Checkpoint

    Penyebaran balik mudah seperti yang diterangkan di atas adalah optimum dari segi pengiraan: ia hanya mengira setiap nod sekali. Walau bagaimanapun, jika anda mengira semula nod, anda mungkin menjimatkan banyak memori. Sebagai contoh, setiap nod hanya boleh dikira semula. Susunan pelaksanaan dan memori yang digunakan adalah seperti yang ditunjukkan di bawah:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Strategi ini adalah optimum dari segi ingatan. Walau bagaimanapun, ambil perhatian bahawa bilangan pengiraan nod adalah berskala n² kali, berbanding dengan faktor skala n sebelumnya: setiap n nod dikira semula secara berjujukan n kali. Oleh kerana kelajuan pengiraan yang perlahan, kaedah ini tidak sesuai untuk pembelajaran mendalam.

    Untuk mencapai keseimbangan antara ingatan dan pengiraan, strategi perlu dicadangkan yang membolehkan nod dikira semula, tetapi tidak terlalu kerap. Strategi yang digunakan di sini adalah untuk menandakan subset pengaktifan rangkaian saraf sebagai nod pusat pemeriksaan.

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Dalam contoh ini, pilih untuk menandakan nod sqrt(n)th sebagai pusat pemeriksaan. Dengan cara ini, bilangan nod pusat pemeriksaan dan bilangan nod antara pusat pemeriksaan adalah antara sqrt(n), yang bermaksud: jumlah memori yang diperlukan juga berskala dalam susunan n. Pengiraan tambahan yang diperlukan oleh strategi ini adalah bersamaan dengan pengiraan yang diperlukan oleh satu laluan ke hadapan melalui rangkaian.

    Rutin:

    Selepas mempelajari butiran titik pemeriksaan kecerunan, datang Lihat bagaimana untuk menggunakan konsep ini dalam PyTorch, ia tidak kelihatan terlalu sukar:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Pengumpulan kecerunan/pengumpulan mikro

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Ikhtisar

    Model pembelajaran mendalam menjadi lebih besar dan lebih besar, dan sukar untuk memasang rangkaian saraf yang begitu besar dalam memori GPU. Oleh itu, anda terpaksa memilih saiz kelompok yang lebih kecil semasa latihan, yang mungkin membawa kepada penumpuan yang lebih perlahan dan ketepatan yang lebih rendah.

    Apakah pengumpulan kecerunan?

    Apabila melatih rangkaian saraf, data biasanya dibahagikan kepada kelompok, dan rangkaian saraf meramalkan label kelompok, yang digunakan untuk mengira kerugian berbanding sasaran sebenar . Seterusnya, lakukan hantaran ke belakang untuk mengira kecerunan dan mengemas kini berat model. Pengumpulan kecerunan mengubah suai langkah terakhir proses latihan: sebelum meneruskan ke kumpulan mini seterusnya, simpan nilai kecerunan dan tambahkan kecerunan baharu pada kecerunan yang disimpan sebelum ini, bukannya mengemas kini pemberat rangkaian untuk setiap kelompok mini . Pemberat dikemas kini hanya selepas model memproses beberapa kelompok mini. Pengumpulan kecerunan menyerupai saiz kelompok yang lebih besar Jika anda ingin menggunakan 64 imej dalam kelompok kecil, jika saiz kelompok melebihi 8, "ralat memori CUDA..." akan dilaporkan. Dalam kes ini, anda boleh menggunakan 8 kelompok imej dan mengemas kini pemberat sekali selepas model memproses 64/8 = 8 kelompok. Jika anda mengumpul kecerunan daripada setiap 8 kelompok ini, hasilnya akan (hampir) sama dan latihan boleh dilakukan!

    Rutin:

    Gelung latihan standard tanpa pengumpulan kecerunan biasanya:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Dalam PyTorch, pengumpulan kecerunan boleh dilakukan dengan mudah. Selepas model melengkapkan pemprosesan kumpulan mini menggunakan accumulation_steps, pengoptimuman boleh dilakukan. Accumulation_steps juga boleh digunakan untuk membahagikan running loss mengikut sifat fungsi loss:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Cantik betul kan ? Kecerunan dikira apabila loss.backward() dipanggil dan dikumpul oleh PyTorch sehingga ia dihentikan apabila optimizer.zero_grad() dipanggil.

    Mata Utama

    Sesetengah seni bina rangkaian menggunakan operasi kelompok khusus, mis menggunakan saiz kumpulan yang sama, hasilnya mungkin sedikit berbeza.

    Latihan Ketepatan Campuran

    Gambaran Keseluruhan

    Latihan ketepatan campuran merujuk kepada menukar beberapa atau semua parameter FP32 kepada format yang lebih kecil seperti FP16, TF16 (tensor titik terapung) atau BF16 (bait titik terapung) ).

    Kelebihan Utama

    Kelebihan utama latihan ketepatan campuran ialah:

    • Mengurangkan penggunaan memori; );
    • Gunakan perkakasan khusus untuk pengiraan yang lebih pantas.
    • Pada masa ini saya hanya berminat dengan kelebihan pertama - mengurangkan penggunaan memori, mari lihat cara menggunakan model PyTorch untuk mencapainya.

    Rutin:

    Akibatnya, selepas melengkapkan operasi .half(), model menjadi 2 kali lebih kecil. Kehilangan skala selepas menukar model kepada format yang berbeza (iaitu BF16, TF16) akan dibincangkan dalam artikel seterusnya. Sesetengah operasi tidak dapat diselesaikan dalam FP16, seperti Softmax. PyTorch boleh menggunakan torch.autocast untuk mengendalikan kes khas ini.

    Pengoptimum 8-bit

    Menambah saiz model ialah cara yang berkesan untuk mendapatkan prestasi yang lebih baik. Walau bagaimanapun, melatih model besar memerlukan penyimpanan model, kecerunan dan keadaan pengoptimum (cth., jumlah licin eksponen Adam dan jumlah kuasa dua kecerunan sebelumnya), yang kesemuanya disimpan dalam jumlah memori yang tersedia terhad.

    Turunkan taraf pengoptimum 32-bit kepada pengoptimum 8-bit, mengurangkan julat nilai daripada 2³² kepada hanya 2⁸=256, yang akan menjejaskan pengoptimuman terpelihara Jumlah memori membuat perbezaan yang besar.

    Penyelidik telah mencadangkan pengoptimum Adam 8-bit baharu asal dalam ingatan".

    Pengoptimum 8-bit mempunyai tiga komponen: (1) Pengkuantitian peringkat blok, yang mengasingkan outlier dan mengedarkan ralat secara sama rata kepada setiap bit; Pengkuantitian dinamik untuk mengukur nilai kecil dan besar dengan ketepatan yang tinggi; (3) Lapisan benam yang stabil untuk meningkatkan kestabilan model pengoptimuman pembenaman perkataan.

    Dengan komponen ini, pengoptimuman boleh dilakukan terus menggunakan keadaan 8-bit. Kuantiti keadaan pengoptimuman 8-bit kepada 32 bit, lakukan kemas kini, dan kemudian kuantikan keadaan kepada 8 bit untuk penyimpanan. Penukaran 8-bit kepada 32-bit dilakukan mengikut elemen dalam daftar tanpa memerlukan salinan perlahan ke memori GPU atau memori sementara tambahan untuk melakukan pengkuantitian dan penyahkuansian. Untuk GPU, ini bermakna bahawa pengoptimum 8-bit adalah lebih pantas daripada pengoptimum 32-bit biasa.

    Mari kita lihat hasil yang memberi inspirasi selepas menggunakan Adam 8-bit:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Seperti yang anda lihat, menggunakan Adam terkuantisasi menjimatkan kira-kira 8.5 GB memori GPU, yang kelihatan sangat hebat!

    Setelah memahami kebolehgunaannya, mari kita lihat cara melaksanakannya dengan python.

    Pakej Bitsandbytes yang disediakan oleh Facebook ialah pembalut ringan di sekeliling fungsi tersuai CUDA, merangkum fungsi pengoptimuman dan pengkuantitian 8-bit, menggunakannya Penggunaan 8- sedikit Adam dapat disedari.

    Rutin:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Seperti yang dinyatakan di atas, pengoptimum terkuantisasi sangat mudah digunakan dan hasilnya bagus.

    Berdasarkan semua kaedah di atas, perhalusi GPT-2-XL pada GPU.

    Akhir sekali, selepas menguasai kaedah di atas, gunakan kaedah ini untuk menyelesaikan masalah praktikal dan memperhalusi model GPT-2-XL dengan 1.5 bilion parameter. Nampaknya tiada cara untuk memuatkannya ke GPU NVIDIA GeForce RTX 3060 dengan 12 GB RAM. Senaraikan semua kaedah yang boleh digunakan:

    • Titik pemeriksaan kecerunan;
    • Latihan ketepatan campuran (saya sediakan helah: gunakan dua sampel model yang sama . Mula-mula, muatkan ke GPU dengan .half dan namakan ia sebagai cpu_model pada CPU Selepas menilai model GPU, muatkan kecerunan gpu_model ke dalam cpu_model dan jalankan pengoptimuman parameter ke dalam model_gpu);
    • Pengumpulan kecerunan menggunakan batch_size=64, minibatch_size=4 perlu diskalakan dengan accumulation_steps Loss;
    • Pengoptimum Adam 8-bit.
    Gunakan semua kaedah di atas dan semak kod:

    Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad

    Selepas menggunakan semua kaedah di atas, penalaan halus model 16GB GPT-2-XL telah dilaksanakan pada GPU, yang menakjubkan!

    Kesimpulan

    Dalam blog ini, konsep utama penggunaan ingatan yang cekap diberikan, yang boleh digunakan untuk ramai Tugas yang sukar, seperti yang dinyatakan di atas. Konsep lain akan dibincangkan dalam artikel seterusnya. Terima kasih banyak kerana meluangkan masa untuk membaca artikel ini!

Atas ialah kandungan terperinci Cara memperhalusi model yang sangat besar dengan sumber GPU yang terhad. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan May 03, 2024 pm 09:01 PM

Menghadapi ketinggalan, sambungan data mudah alih perlahan pada iPhone? Biasanya, kekuatan internet selular pada telefon anda bergantung pada beberapa faktor seperti rantau, jenis rangkaian selular, jenis perayauan, dsb. Terdapat beberapa perkara yang boleh anda lakukan untuk mendapatkan sambungan Internet selular yang lebih pantas dan boleh dipercayai. Betulkan 1 – Paksa Mulakan Semula iPhone Kadangkala, paksa memulakan semula peranti anda hanya menetapkan semula banyak perkara, termasuk sambungan selular. Langkah 1 – Hanya tekan kekunci naikkan kelantangan sekali dan lepaskan. Seterusnya, tekan kekunci Turun Kelantangan dan lepaskannya semula. Langkah 2 - Bahagian seterusnya proses adalah untuk menahan butang di sebelah kanan. Biarkan iPhone selesai dimulakan semula. Dayakan data selular dan semak kelajuan rangkaian. Semak semula Betulkan 2 – Tukar mod data Walaupun 5G menawarkan kelajuan rangkaian yang lebih baik, ia berfungsi lebih baik apabila isyarat lemah

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye Apr 26, 2024 am 11:37 AM

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! May 06, 2024 pm 04:13 PM

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. May 07, 2024 pm 05:00 PM

Baru-baru ini, bulatan tentera telah terharu dengan berita: jet pejuang tentera AS kini boleh melengkapkan pertempuran udara automatik sepenuhnya menggunakan AI. Ya, baru-baru ini, jet pejuang AI tentera AS telah didedahkan buat pertama kali, mendedahkan misterinya. Nama penuh pesawat pejuang ini ialah Variable Stability Simulator Test Aircraft (VISTA). Ia diterbangkan sendiri oleh Setiausaha Tentera Udara AS untuk mensimulasikan pertempuran udara satu lawan satu. Pada 2 Mei, Setiausaha Tentera Udara A.S. Frank Kendall berlepas menggunakan X-62AVISTA di Pangkalan Tentera Udara Edwards Ambil perhatian bahawa semasa penerbangan selama satu jam, semua tindakan penerbangan telah diselesaikan secara autonomi oleh AI! Kendall berkata - "Sejak beberapa dekad yang lalu, kami telah memikirkan tentang potensi tanpa had pertempuran udara-ke-udara autonomi, tetapi ia sentiasa kelihatan di luar jangkauan." Namun kini,

See all articles