Jadual Kandungan
Kenapa awak bertengkar lagi? " >Kenapa awak bertengkar lagi?
Kali terakhir adalah beberapa bulan yang lalu" >Kali terakhir adalah beberapa bulan yang lalu
Rumah Peranti teknologi AI Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Apr 16, 2023 am 10:04 AM
data Model

Baru-baru ini, Jürgen Schmidhuber, bapa LSTM, berselisih faham dengan LeCun sekali lagi!

Malah, pelajar yang mengenali lelaki pemarah ini sebelum ini mengetahui bahawa terdapat pengalaman yang tidak menyenangkan antara Jürgen Schmidhuber yang hebat dan beberapa nama besar dalam komuniti pembelajaran mesin.

Terutama apabila "tiga orang itu" memenangi Anugerah Turing bersama-sama, tetapi Schmidhuber tidak, lelaki tua itu bertambah marah...

Lagipun, Schmidhuber sentiasa percaya bahawa pemimpin ML semasa ini, seperti Bengio, Hinton, LeCun, termasuk bapa kepada "GAN" Goodfellow dan lain-lain, banyak daripada apa yang dipanggil "pencapaian perintis" mereka pertama kali dicadangkan olehnya. keluar, dan orang-orang ini tidak menyebut dia sama sekali dalam kertas itu.

Atas sebab ini, Schmidhuber pernah menulis artikel khas untuk mengkritik artikel ulasan "Deep Learning" yang diterbitkan oleh Bengio, Hinton, dan LeCun in Nature pada tahun 2015.

Terutamanya bercakap tentang keputusan dalam artikel ini, perkara mana yang disebut dahulu olehnya, dan perkara mana yang disebut dahulu oleh senior yang lain, bukan tiga pengarang yang menyebutnya pertama.

Kenapa awak bertengkar lagi?

Berbalik kepada punca kejadian ini, ia sebenarnya tweet yang dihantar oleh LeCun pada bulan September.

Kandungannya adalah jawapan kepada soalan Profesor David Chalmers: "Apakah penemuan intelektual (idea baharu) yang paling penting dalam AI dalam sepuluh tahun yang lalu?" >

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Pada 4 Oktober, Schmidhuber menulis artikel di blognya dengan marah: Kebanyakan 5 "idea terbaik" ini datang dari makmal saya, dan ia dicadangkan dalam masa yang lama . Jauh lebih awal daripada titik masa "10 tahun".

Dalam artikel itu, Schmidhuber menyenaraikan enam bukti secara terperinci untuk menyokong hujahnya.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Tetapi mungkin kerana terlalu sedikit orang yang melihatnya, Schmidhuber tweet sekali lagi pada 22 November untuk kacau "nasi sejuk" ini lagi Baca lagi.

Namun, berbanding kali terakhir, yang merupakan pertengkaran yang agak hangat, LeCun langsung tidak menghiraukannya kali ini...

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Bapa LSTM membentangkan "enam bukti utama"

1 "Pembelajaran kendiri" yang menjana label secara automatik rangkaian saraf (NN): Kembali sekurang-kurangnya kepada kerja saya pada tahun 1990-91.

(I) Penjanaan sasaran yang diselia sendiri dalam rangkaian saraf berulang (RNN) melalui pengekodan ramalan untuk belajar memampatkan jujukan data pada skala masa berbilang dan tahap abstraksi.

Di sini, RNN "automaton" mempelajari pra-tugas "meramal input seterusnya" dan menyasarkan pemerhatian yang tidak dijangka dalam aliran data masuk ke mesin blok "penganalisis" RNN, yang mempelajari keteraturan peringkat lebih tinggi dan seterusnya memperhalusi pengetahuan ramalan yang diperolehnya kembali menjadi automasi melalui objektif latihan yang sesuai.

Ini sangat memudahkan tugasan pembelajaran mendalam hiliran klasifikasi jujukan yang sebelum ini tidak dapat diselesaikan.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

(II) Penjanaan anotasi diselia sendiri melalui motivasi intrinsik jenis GAN, di mana model dunia NN belajar meramalkan penjanaan anotasi yang bermusuhan The behavioral akibat daripada pengawal NN yang dicipta secara eksperimen.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Selain itu, istilah "pengawasan diri" telah pun muncul dalam tajuk kertas kerja yang saya terbitkan pada tahun 1990.

Tetapi, perkataan ini juga digunakan dalam makalah terdahulu (1978)...

2. "ResNets": sebenarnya adalah Highway Nets yang saya cadangkan awal-awal lagi. Tetapi LeCun berpendapat bahawa kecerdasan ResNets adalah "tidak mendalam", yang membuatkan saya sangat sedih.

Sebelum saya mencadangkan Highway Nets, rangkaian suapan hadapan hanya mempunyai beberapa dozen lapisan (20-30 lapisan) paling banyak, dan Highway Nets ialah rangkaian neural suapan hadapan yang benar-benar mendalam yang pertama, dengan Beratus-ratus lapisan.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Pada tahun 1990-an, LSTM saya membawa kedalaman yang tidak terhingga kepada NN rekursif yang diawasi. Pada tahun 2000-an, Highway Nets yang diilhamkan oleh LSTM membawa kedalaman kepada NN suapan.

Hasilnya, LSTM telah menjadi NN yang paling banyak disebut pada abad ke-20, dan Highway Nets (ResNet) ialah NN yang paling banyak disebut dalam abad ke-21.

Boleh dikatakan bahawa mereka mewakili intipati pembelajaran mendalam, dan pembelajaran mendalam adalah mengenai kedalaman NN.

3 "Gating->Perhatian->Graf Bersambung Dinamik": Sekurang-kurangnya ia kembali kepada Pengaturcara dan Kunci Fast Weight saya dari 1991-93 -Nilai Rangkaian Memori ("Key-Nilai" dipanggil "DARI-KEPADA").

Pada tahun 1993, saya memperkenalkan istilah "perhatian" seperti yang kita gunakan hari ini.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Walau bagaimanapun, perlu diperhatikan bahawa gerbang pendaraban pertama di NN boleh dikesan kembali ke mesin pembelajaran mendalam Ivakhnenko & Lapa pada tahun 1965.

4. "Memori yang boleh dibezakan": Ia juga boleh dikesan kembali ke Fast Weight Programmer atau Key-Value Memory Networks pada tahun 1991.

Asingkan storan dan kawalan seperti dalam komputer tradisional, tetapi dengan cara pembezaan hujung ke hujung, penyesuaian, saraf sepenuhnya (bukannya dengan cara hibrid).

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

5 "Penggantian modul setara, seperti multi-head self-attention->Transformer": Saya menerbitkannya pada tahun 1991 Transformer dengan perhatian diri yang linear. Istilah yang sepadan "lampu sorot perhatian dalaman" bermula pada tahun 1993.

6 "GAN ialah konsep pembelajaran mesin terbaik dalam tempoh 10 tahun yang lalu"

Anda menyebut The. prinsip GAN (2014) ini sebenarnya dicadangkan oleh saya pada tahun 1990 atas nama rasa ingin tahu kecerdasan buatan.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Kali terakhir adalah beberapa bulan yang lalu

Sebenarnya, ini tidak lagi berlaku antara Schmidhuber dan LeCun Terdapat pertikaian buat kali pertama tahun ini.

Pada bulan Jun dan Julai, kedua-duanya bergaduh bolak-balik mengenai laporan tinjauan mengenai "Arah Masa Depan Perisikan Mesin Autonomi" yang diterbitkan oleh LeCun.

Pada 27 Jun, Yann LeCun menerbitkan kertas kerja "A Path Towards Autonomous Machine Intelligence" yang telah disimpannya selama beberapa tahun, memanggilnya sebagai "karya yang menunjukkan arah pembangunan masa depan daripada AI."

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Kertas kerja ini secara sistematik membincangkan isu "bagaimana mesin boleh belajar seperti haiwan dan manusia" dan panjangnya lebih daripada 60 muka surat.

LeCun berkata bahawa artikel ini bukan sahaja pemikirannya tentang hala tuju umum pembangunan AI dalam 5-10 tahun akan datang, tetapi juga apa yang dia rancang untuk menyelidik dalam beberapa tahun akan datang, dan berharap dapat memberi inspirasi kepada komuniti AI lebih ramai datang untuk belajar bersama.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Dan Schmidhuber mengetahui tentang berita itu kira-kira sepuluh hari lebih awal, mendapat kertas itu dan segera menulis artikel untuk menyangkalnya.

Menurut catatan blog Schmidhuber sendiri, inilah yang berlaku pada masa itu:

Pada 14 Jun 2022, sebuah media sains mengeluarkan berita bahawa LeCun akan mengeluarkan laporan pada 27 Jun, dan menghantar draf laporan itu kepada saya (ia masih dalam tempoh kerahsiaan pada masa itu), dan saya diminta mengulas.

Saya menulis ulasan memberitahu mereka bahawa ini pada asasnya adalah replika kerja kami sebelum ini, yang tidak disebut dalam artikel LeCun.

Walau bagaimanapun, pendapat saya tidak didengari.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Malah, lama sebelum artikelnya diterbitkan, kami telah mencadangkan apa yang dipanggil "sumbangan asal utama" LeCun dalam kebanyakan artikel ini kandungan terutamanya termasuk:

(1) "Seni bina kognitif, di mana semua modul boleh diasingkan dan banyak modul boleh dilatih" (kami mencadangkannya pada tahun 1990).

(2) "Ramalkan struktur hierarki model dunia, perwakilan pembelajaran pada tahap abstraksi berbilang dan skala masa berbilang" (yang dicadangkan oleh kami pada 1991).

(3) "Paradigma pembelajaran penyeliaan kendiri yang menghasilkan perwakilan yang bermaklumat dan boleh diramal" (model kami telah digunakan dalam pembelajaran pengukuhan dan pembinaan dunia sejak 1997 Diubah suai)

(4) Model ramalan "untuk perancangan hierarki di bawah ketidakpastian", termasuk penjana submatlamat saraf berasaskan kecerunan (1990), konsep abstrak Penaakulan spatial (1997), rangkaian saraf yang "belajar bertindak terutamanya melalui pemerhatian” (2015), dan belajar berfikir (2015) semuanya dicadangkan oleh kami dahulu.

Pada 14 Julai, Yann LeCun menjawab, mengatakan bahawa perbincangan itu harus membina Dia berkata begini:

Saya tidak mahu. masuk ke dalam situasi. Dalam perdebatan sia-sia tentang "siapa yang mencipta konsep tertentu", anda tidak mahu menyelidiki 160 rujukan yang disenaraikan dalam artikel respons anda. Saya rasa pendekatan yang lebih membina ialah mengenal pasti 4 penerbitan yang anda fikir mungkin mengandungi idea dan kaedah daripada 4 sumbangan yang saya senaraikan.

Seperti yang saya katakan di awal makalah, terdapat banyak konsep yang telah wujud sejak sekian lama dan bukan anda mahupun saya penciptanya: contohnya, konsep model dunia yang boleh ditala halus, yang boleh dikesan kembali kepada kerja kawalan pengoptimuman awal.

Melatih model dunia menggunakan rangkaian saraf untuk mempelajari pengenalpastian sistem model dunia Idea ini boleh dikesan kembali ke akhir 1980-an, oleh Michael Jordan, Bernie Widrow, Robinson & Fallsside, Kumpathi Narendra, Paul Werbos Kerja yang dilakukan mendahului kerja anda.

Pada pendapat saya, jawapan lelaki jerami ini seolah-olah LeCun mengubah topik dan mengelakkan isu mengambil kredit untuk orang lain dalam apa yang dipanggil "sumbangan asal utama" beliau.

Saya menjawab pada 14 Julai:

Mengenai perkara yang anda katakan tentang "sesuatu yang tidak anda atau saya cipta": tuntutan kertas anda, menggunakan saraf rangkaian untuk pengenalan sistem boleh dikesan kembali ke awal 1990-an. Walau bagaimanapun, dalam respons anda sebelum ini anda nampaknya bersetuju dengan saya bahawa kertas pertama mengenai perkara ini muncul pada tahun 1980-an.

Bagi "sumbangan asal utama" anda, mereka sebenarnya menggunakan hasil kerja awal saya.

(1) Mengenai "seni bina kognitif di mana semua modul boleh dibezakan dan banyak modul boleh dilatih" yang anda cadangkan, "melalui motivasi intrinsik Tingkah laku pemanduan":

Saya mencadangkan seni bina yang boleh dibezakan untuk pembelajaran dan perancangan dalam talian pada tahun 1990. Ini adalah kawalan pertama dengan "motivasi intrinsik" Ia digunakan untuk menambah baik model dunia, yang bersifat generatif dan menentang ; GAN 2014 yang dipetik dalam artikel anda ialah versi terbitan model ini.

(2) Mengenai cadangan "struktur hierarki model dunia ramalan yang mempelajari perwakilan pada pelbagai peringkat abstraksi dan skala masa":

Ini dimungkinkan oleh Pemampat Sejarah Neural 1991 saya. Ia menggunakan pengekodan ramalan untuk mempelajari perwakilan dalaman hierarki bagi data jujukan panjang dengan cara yang diselia sendiri, dengan sangat memudahkan pembelajaran hiliran. Menggunakan prosedur penghalusan rangkaian saraf 1991 saya, perwakilan ini boleh diruntuhkan menjadi satu rangkaian saraf berulang (RNN).

(3) Mengenai "paradigma pembelajaran penyeliaan sendiri yang terkawal, menghasilkan perwakilan yang bermaklumat dan boleh diramal":

Ini mata telah dibuat dalam sistem yang saya cadangkan untuk dibina pada tahun 1997. Daripada meramalkan semua butiran input masa hadapan, ia boleh bertanya soalan abstrak sewenang-wenangnya dan memberikan jawapan yang boleh dikira dalam apa yang anda panggil "ruang perwakilan." Dalam sistem ini, dua model pembelajaran yang dipanggil "otak kiri" dan "otak kanan" memilih lawan dengan ganjaran maksimum untuk terlibat dalam permainan jumlah sifar, dan kadangkala bertaruh pada keputusan eksperimen pengiraan tersebut.

(4) Berkenaan model boleh beza ramalan perancangan hierarki anda yang boleh digunakan di bawah ketidakpastian, artikel anda menyatakan begini:

"Satu soalan yang belum dijawab ialah bagaimana konfigurator belajar untuk menguraikan tugas yang kompleks kepada satu siri sub-matlamat yang boleh diselesaikan oleh ejen sahaja. Saya akan menyerahkan soalan ini kepada masa hadapan "

Jangan bercakap tentang masa depan Malah, saya telah menerbitkan artikel ini lebih daripada 30 tahun yang lalu:

A Rangkaian saraf pengawal bertanggungjawab untuk mendapatkan input arahan tambahan dalam. bentuk (mula, sasaran). Rangkaian saraf penganggar bertanggungjawab untuk belajar meramalkan kos yang dijangkakan dari awal hingga matlamat. Penjana submatlamat berdasarkan rangkaian saraf berulang yang boleh ditala halus melihat input (permulaan, matlamat) ini dan mempelajari urutan submatlamat perantaraan kos minimum melalui keturunan kecerunan menggunakan rangkaian saraf penganggar.

(5) Anda juga menekankan rangkaian saraf yang "mempelajari tingkah laku terutamanya melalui pemerhatian." Kami sebenarnya menyelesaikan masalah ini sangat awal, dalam artikel 2015 ini, membincangkan masalah umum pembelajaran pengukuhan (RL) dalam persekitaran yang boleh diperhatikan separa.

Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'

Model dunia M mungkin pandai meramal beberapa perkara tetapi tidak pasti tentang yang lain. Pengawal C memaksimumkan fungsi objektifnya dengan belajar menanya dan mentafsir jawapan (lebih banyak corak pengaktifan) melalui urutan soalan ciptaan sendiri (corak pengaktifan).

C boleh mendapat manfaat daripada pembelajaran mengekstrak sebarang jenis maklumat algoritma daripada M, seperti untuk perancangan dan penaakulan hierarki, memanfaatkan pemerhatian pasif yang dikodkan dalam M, dsb.

Atas ialah kandungan terperinci Bapa LSTM sekali lagi mencabar LeCun: Lima mata 'inovasi' anda semuanya ditiru daripada saya! Tetapi malangnya, 'Saya tidak dapat membacanya kembali'. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan May 03, 2024 pm 09:01 PM

Menghadapi ketinggalan, sambungan data mudah alih perlahan pada iPhone? Biasanya, kekuatan internet selular pada telefon anda bergantung pada beberapa faktor seperti rantau, jenis rangkaian selular, jenis perayauan, dsb. Terdapat beberapa perkara yang boleh anda lakukan untuk mendapatkan sambungan Internet selular yang lebih pantas dan boleh dipercayai. Betulkan 1 – Paksa Mulakan Semula iPhone Kadangkala, paksa memulakan semula peranti anda hanya menetapkan semula banyak perkara, termasuk sambungan selular. Langkah 1 – Hanya tekan kekunci naikkan kelantangan sekali dan lepaskan. Seterusnya, tekan kekunci Turun Kelantangan dan lepaskannya semula. Langkah 2 - Bahagian seterusnya proses adalah untuk menahan butang di sebelah kanan. Biarkan iPhone selesai dimulakan semula. Dayakan data selular dan semak kelajuan rangkaian. Semak semula Betulkan 2 – Tukar mod data Walaupun 5G menawarkan kelajuan rangkaian yang lebih baik, ia berfungsi lebih baik apabila isyarat lemah

Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. May 07, 2024 pm 05:00 PM

Baru-baru ini, bulatan tentera telah terharu dengan berita: jet pejuang tentera AS kini boleh melengkapkan pertempuran udara automatik sepenuhnya menggunakan AI. Ya, baru-baru ini, jet pejuang AI tentera AS telah didedahkan buat pertama kali, mendedahkan misterinya. Nama penuh pesawat pejuang ini ialah Variable Stability Simulator Test Aircraft (VISTA). Ia diterbangkan sendiri oleh Setiausaha Tentera Udara AS untuk mensimulasikan pertempuran udara satu lawan satu. Pada 2 Mei, Setiausaha Tentera Udara A.S. Frank Kendall berlepas menggunakan X-62AVISTA di Pangkalan Tentera Udara Edwards Ambil perhatian bahawa semasa penerbangan selama satu jam, semua tindakan penerbangan telah diselesaikan secara autonomi oleh AI! Kendall berkata - "Sejak beberapa dekad yang lalu, kami telah memikirkan tentang potensi tanpa had pertempuran udara-ke-udara autonomi, tetapi ia sentiasa kelihatan di luar jangkauan." Namun kini,

See all articles