Rumah Peranti teknologi AI Tinjauan NeurIPS 2023: Tsinghua ToT mendorong model besar menjadi fokus

Tinjauan NeurIPS 2023: Tsinghua ToT mendorong model besar menjadi fokus

Jan 26, 2024 pm 04:27 PM
data kereta api

Baru-baru ini, sebagai salah satu daripada sepuluh blog teknologi terbaik di Amerika Syarikat, Latent Space telah menjalankan semakan dan ringkasan terpilih bagi persidangan NeurIPS 2023 yang lalu.

Dalam persidangan NeurIPS, sebanyak 3586 kertas kerja telah diterima, 6 daripadanya memenangi anugerah. Walaupun kertas-kertas yang memenangi anugerah ini mendapat banyak perhatian, kertas-kertas lain juga mempunyai kualiti dan potensi yang luar biasa. Malah, kertas-kertas ini mungkin meramalkan kejayaan besar seterusnya dalam AI.

Kalau begitu mari kita lihat bersama-sama! . Kertas kerja ini mencadangkan QLoRA , versi LoRA yang lebih cekap memori tetapi lebih perlahan yang menggunakan beberapa helah pengoptimuman untuk menjimatkan memori.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Secara keseluruhannya, QLoRA membolehkan penggunaan memori GPU yang kurang apabila memperhalusi model bahasa besar.

Mereka memperhalusi model baharu, bernama Guanaco, dan melatihnya selama 24 jam pada hanya satu GPU, dan hasilnya mengatasi model sebelumnya pada penanda aras Vicuna.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜Pada masa yang sama, penyelidik juga telah membangunkan kaedah lain, seperti kuantifikasi LoRA 4-bit, dengan kesan yang sama. .

Dataset berbilang mod memainkan peranan penting dalam penemuan terbaru seperti CLIP, Stable Diffusion dan GPT-4, tetapi reka bentuknya tidak mendapat perhatian penyelidikan yang sama seperti seni bina model atau algoritma latihan.

Untuk menangani kekurangan ini dalam ekosistem pembelajaran mesin, penyelidik memperkenalkan DataComp, tempat ujian untuk eksperimen set data sekitar 12.8 bilion pasangan teks imej daripada kumpulan calon baharu Common Crawl.

Pengguna boleh bereksperimen dengan DataComp, mereka bentuk teknik penapisan baharu atau memilih sumber data baharu dan menilainya dengan menjalankan kod latihan CLIP piawai dan menguji model yang terhasil pada 38 set ujian hiliran set data baharu.

Hasilnya menunjukkan bahawa penanda aras terbaik DataComp-1B, yang membolehkan melatih model CLIP ViT-L/14 dari awal, mencapai ketepatan sampel sifar sebanyak 79.2% pada ImageNet, yang lebih baik daripada CLIP ViT-L OpenAI /14 Model ini mengatasi prestasi sebanyak 3.7 mata peratusan, membuktikan bahawa aliran kerja DataComp menghasilkan set latihan yang lebih baik. . e 01868827a9af

dalam kertas ini , penyelidik membentangkan percubaan pertama untuk menjana data mengikut arahan imej-bahasa multimodal menggunakan GPT-4, yang bergantung sepenuhnya pada bahasa.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Dengan melaraskan arahan pada data yang dijana ini, kami memperkenalkan LLaVA: Pembantu Penglihatan dan Bahasa Besar, model berbilang mod besar yang dilatih hujung-ke-hujung, menghubungkan pengekod visual dan LLM, dengan pemahaman visual dan bahasa umum.

Eksperimen awal menunjukkan bahawa LLaVA menunjukkan keupayaan sembang pelbagai mod yang mengagumkan, kadangkala mempamerkan gelagat GPT-4 berbilang modal pada imej/arahan yang tidak kelihatan dan mengikut arahan berbilang mod sintetik pada data Set mencapai skor relatif 85.1% berbanding dengan GPT -4.

Sinergi LLaVA dan GPT-4 mencapai ketepatan terkini 92.53% apabila memperhalusi menjawab soalan saintifik. .

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜Model bahasa semakin digunakan untuk menyelesaikan masalah umum dalam pelbagai tugas, tetapi masih terhad kepada proses membuat keputusan peringkat token, kiri ke kanan semasa inferens. Ini bermakna mereka mungkin berprestasi rendah dalam tugas yang memerlukan penerokaan, pandangan jauh strategik, atau di mana pembuatan keputusan awal memainkan peranan penting.

Untuk mengatasi cabaran ini, penyelidik memperkenalkan rangka kerja inferens model bahasa baharu, Tree of Thoughts (ToT), yang menyamaratakan pendekatan Rantaian Pemikiran yang popular dalam mendorong model bahasa dan membolehkan penerokaan teks yang konsisten dijalankan pada unit (idea) yang berfungsi sebagai langkah perantaraan dalam menyelesaikan masalah. ToT membolehkan model bahasa membuat keputusan yang disengajakan dengan mempertimbangkan pelbagai laluan penaakulan yang berbeza dan pilihan menilai sendiri untuk menentukan langkah seterusnya, melihat ke hadapan atau ke belakang apabila perlu untuk membuat pilihan global.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Percubaan telah membuktikan bahawa ToT meningkatkan dengan ketara keupayaan menyelesaikan masalah model bahasa pada tiga tugas baharu yang memerlukan perancangan atau carian yang tidak remeh: permainan 24 mata, penulisan kreatif dan teka silang kata mini. Sebagai contoh, dalam permainan 24 mata, manakala GPT-4 menggunakan gesaan Rantaian Pemikiran hanya menyelesaikan 4% daripada tugasan, ToT mencapai kadar kejayaan 74%. .

Model bahasa telah menunjukkan keupayaan yang luar biasa untuk menyelesaikan tugasan baharu daripada sebilangan kecil contoh atau arahan teks, terutamanya dalam konteks berskala besar. Walau bagaimanapun, secara paradoks, mereka mempamerkan kesukaran dengan fungsi asas seperti aritmetik atau pencarian fakta berbanding model khusus yang lebih ringkas dan lebih kecil.

Dalam kertas kerja ini, penyelidik menunjukkan bahawa model bahasa boleh mengajar diri mereka sendiri untuk menggunakan alat luaran melalui API mudah, dan mencapai gabungan terbaik antara keduanya.

Mereka memperkenalkan Toolformer, model yang dilatih untuk menentukan API yang hendak dipanggil, masa untuk memanggilnya, parameter apa yang perlu dilalui dan cara terbaik untuk menggabungkan keputusan ke dalam ramalan token masa hadapan.

Ini dilakukan dengan cara penyeliaan sendiri, hanya memerlukan sebilangan kecil demo bagi setiap API. Mereka menyepadukan pelbagai alat, termasuk kalkulator, sistem soal jawab, enjin carian, sistem terjemahan dan kalendar.

Toolformer mencapai prestasi sifar pukulan yang dipertingkatkan dengan ketara pada pelbagai tugas hiliran sambil bersaing dengan model yang lebih besar, tanpa mengorbankan keupayaan pemodelan bahasa terasnya.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Tajuk kertas: Voyager: Ejen Terwujud Terbuka dengan Model Bahasa Besar

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Alamat kertas: https://arxiv.pdf.05/

Kertas kerja ini memperkenalkan Voyager, ejen pembelajaran pertama yang dikuasakan oleh model bahasa besar (LLM) yang boleh terus meneroka dunia dalam Minecraft, memperoleh kemahiran yang pelbagai dan membuat penemuan bebas.

Voyager terdiri daripada tiga komponen utama:

Pelajaran automatik yang direka untuk memaksimumkan penerokaan,

Perpustakaan kemahiran kod boleh laku yang semakin berkembang untuk menyimpan dan mendapatkan semula tingkah laku yang kompleks,

Mekanisme segera lelaran baharu yang menyepadukan maklum balas alam sekitar, ralat pelaksanaan dan pengesahan kendiri untuk menambah baik program.

Voyager berinteraksi dengan GPT-4 melalui pertanyaan kotak hitam, mengelakkan keperluan untuk memperhalusi parameter model.

Berdasarkan penyelidikan empirikal, Voyager menunjukkan keupayaan pembelajaran sepanjang hayat yang kukuh dalam konteks persekitaran dan menunjukkan kecekapan unggul dalam bermain Minecraft.

Ia mendapat akses kepada item unik 3.3x lebih tinggi daripada tahap teknologi sebelumnya, bergerak 2.3x lebih lama dan membuka kunci pencapaian pokok teknologi utama 15.3x lebih cepat daripada tahap teknologi sebelumnya.

Walau bagaimanapun, sementara Voyager dapat menggunakan perpustakaan kemahiran yang dipelajari untuk menyelesaikan tugasan baru dari awal dalam dunia Minecraft baharu, teknik lain sukar untuk digeneralisasikan.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Paper Tajuk: Menilai Peta Kognitif dan Perancangan dalam Model Bahasa Besar dengan Alamat Cogeval

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

paper: https://openreview.net/pdf?id=vtkgvgcge3

Kertas kerja ini mula-mula mencadangkan CogEval, protokol yang diilhamkan oleh sains kognitif untuk menilai secara sistematik keupayaan kognitif model bahasa besar.

Kedua, kertas kerja menggunakan sistem CogEval untuk menilai lapan LLM (OpenAI GPT-4, GPT-3.5-turbo-175B, davinci-003-175B, Google Bard, Cohere-xlarge-52.4B, Anthropic Claude-175B - 52B, LLaMA-13B dan Alpaca-7B) keupayaan pemetaan dan perancangan kognitif. Gesaan tugas adalah berdasarkan eksperimen manusia dan tidak terdapat dalam set latihan LLM.

Penyelidikan telah mendapati bahawa walaupun LLM menunjukkan keupayaan yang jelas dalam beberapa tugasan perancangan dengan struktur yang lebih mudah, apabila tugas menjadi kompleks, LLM akan jatuh ke dalam titik buta, termasuk halusinasi trajektori tidak sah dan jatuh ke dalam gelung.

Penemuan ini tidak menyokong idea bahawa LLM mempunyai keupayaan perancangan plug-and-play. Mungkin LLM tidak memahami struktur hubungan yang mendasari di sebalik masalah perancangan, iaitu peta kognitif, dan menghadapi masalah membuka trajektori terarah matlamat berdasarkan struktur asas. .

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜Pengarang menegaskan bahawa banyak seni bina masa sub-linear semasa, seperti perhatian linear, lilitan berpagar dan model berulang, serta model ruang keadaan berstruktur (SSM), bertujuan untuk menyelesaikan ketidakcekapan pengiraan Transformer apabila memproses jujukan panjang. Walau bagaimanapun, model ini tidak berprestasi sebaik model perhatian pada domain penting seperti bahasa. Pengarang percaya bahawa kelemahan utama jenis

ini ialah ketidakupayaan mereka untuk melakukan penaakulan berasaskan kandungan dan membuat beberapa penambahbaikan. Pertama, hanya menjadikan parameter SSM sebagai fungsi input boleh menangani kelemahan mod diskretnya, membolehkan model secara selektif menyebarkan atau melupakan maklumat sepanjang dimensi panjang jujukan bergantung pada token semasa.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Kedua, walaupun perubahan ini menghalang penggunaan lilitan yang cekap, pengarang mereka bentuk algoritma selari yang menyedari perkakasan dalam mod gelung. Mengintegrasikan SSM terpilih ini ke dalam seni bina rangkaian neural hujung ke hujung yang dipermudahkan tidak memerlukan mekanisme perhatian atau modul MLP (Mamba).

Mamba berprestasi baik dalam kelajuan inferens (5x lebih tinggi daripada Transformers) dan menskala secara linear dengan panjang jujukan, meningkatkan prestasi pada data sebenar sehingga jujukan jutaan panjang.

Sebagai tulang belakang model jujukan universal, Mamba telah mencapai prestasi terkini dalam pelbagai bidang termasuk bahasa, audio dan genomik. Dari segi pemodelan bahasa, model Mamba-1.4B mengatasi model Transformers dengan saiz yang sama dalam penilaian pra-latihan dan hiliran, dan menyaingi model Transformersnya dua kali ganda saiz.

NeurIPS 2023精选回顾:大模型最火,清华ToT思维树上榜

Walaupun kertas kerja ini tidak memenangi anugerah pada tahun 2023, seperti Mamba, sebagai model teknikal yang boleh merevolusikan seni bina model bahasa, masih terlalu awal untuk menilai kesannya.

Bagaimana keadaan NeurIPS tahun depan, dan bagaimanakah bidang kecerdasan buatan dan sistem maklumat saraf akan berkembang pada tahun 2024 Walaupun terdapat banyak pendapat, siapa yang pasti? Sama-sama kita tunggu dan lihat.

Atas ialah kandungan terperinci Tinjauan NeurIPS 2023: Tsinghua ToT mendorong model besar menjadi fokus. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Gunakan ddrescue untuk memulihkan data pada Linux Gunakan ddrescue untuk memulihkan data pada Linux Mar 20, 2024 pm 01:37 PM

DDREASE ialah alat untuk memulihkan data daripada fail atau peranti sekat seperti cakera keras, SSD, cakera RAM, CD, DVD dan peranti storan USB. Ia menyalin data dari satu peranti blok ke peranti lain, meninggalkan blok data yang rosak dan hanya memindahkan blok data yang baik. ddreasue ialah alat pemulihan yang berkuasa yang automatik sepenuhnya kerana ia tidak memerlukan sebarang gangguan semasa operasi pemulihan. Selain itu, terima kasih kepada fail peta ddasue, ia boleh dihentikan dan disambung semula pada bila-bila masa. Ciri-ciri utama lain DDREASE adalah seperti berikut: Ia tidak menimpa data yang dipulihkan tetapi mengisi jurang sekiranya pemulihan berulang. Walau bagaimanapun, ia boleh dipotong jika alat itu diarahkan untuk melakukannya secara eksplisit. Pulihkan data daripada berbilang fail atau blok kepada satu

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Google gembira: prestasi JAX mengatasi Pytorch dan TensorFlow! Ia mungkin menjadi pilihan terpantas untuk latihan inferens GPU Apr 01, 2024 pm 07:46 PM

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan May 03, 2024 pm 09:01 PM

Menghadapi ketinggalan, sambungan data mudah alih perlahan pada iPhone? Biasanya, kekuatan internet selular pada telefon anda bergantung pada beberapa faktor seperti rantau, jenis rangkaian selular, jenis perayauan, dsb. Terdapat beberapa perkara yang boleh anda lakukan untuk mendapatkan sambungan Internet selular yang lebih pantas dan boleh dipercayai. Betulkan 1 – Paksa Mulakan Semula iPhone Kadangkala, paksa memulakan semula peranti anda hanya menetapkan semula banyak perkara, termasuk sambungan selular. Langkah 1 – Hanya tekan kekunci naikkan kelantangan sekali dan lepaskan. Seterusnya, tekan kekunci Turun Kelantangan dan lepaskannya semula. Langkah 2 - Bahagian seterusnya proses adalah untuk menahan butang di sebelah kanan. Biarkan iPhone selesai dimulakan semula. Dayakan data selular dan semak kelajuan rangkaian. Semak semula Betulkan 2 – Tukar mod data Walaupun 5G menawarkan kelajuan rangkaian yang lebih baik, ia berfungsi lebih baik apabila isyarat lemah

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Jun 11, 2024 am 09:51 AM

Apa? Adakah Zootopia dibawa menjadi realiti oleh AI domestik? Didedahkan bersama-sama dengan video itu ialah model penjanaan video domestik berskala besar baharu yang dipanggil "Keling". Sora menggunakan laluan teknikal yang serupa dan menggabungkan beberapa inovasi teknologi yang dibangunkan sendiri untuk menghasilkan video yang bukan sahaja mempunyai pergerakan yang besar dan munasabah, tetapi juga mensimulasikan ciri-ciri dunia fizikal dan mempunyai keupayaan gabungan konsep dan imaginasi yang kuat. Mengikut data, Keling menyokong penjanaan video ultra panjang sehingga 2 minit pada 30fps, dengan resolusi sehingga 1080p dan menyokong berbilang nisbah aspek. Satu lagi perkara penting ialah Keling bukanlah demo atau demonstrasi hasil video yang dikeluarkan oleh makmal, tetapi aplikasi peringkat produk yang dilancarkan oleh Kuaishou, pemain terkemuka dalam bidang video pendek. Selain itu, tumpuan utama adalah untuk menjadi pragmatik, bukan untuk menulis cek kosong, dan pergi ke dalam talian sebaik sahaja ia dikeluarkan Model besar Ke Ling telah pun dikeluarkan di Kuaiying.

Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! Robot Tesla bekerja di kilang, Musk: Tahap kebebasan tangan akan mencapai 22 tahun ini! May 06, 2024 pm 04:13 PM

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

See all articles