lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Lihat editor bahagian hadapan semasa
- Apabila membantu beberapa pelajar mengubah suai kod dari jauh, saya mendapati bahawa editor yang digunakan oleh semua orang adalah pelbagai: VSCode, WebStorm dan juga Sublime... Ini tidak dapat membantu tetapi mengingatkan saya: [Apabila saya mula-mula mempelajari bahagian hadapan, saya benar-benar Mencuba banyak pilihan berbeza pada editor]. Setakat ini, saya telah menjadi "peminat tegar" menggunakan VSCode malah "terlupa" bahawa editor lain wujud. Anda boleh menganggap ini sebagai sejenis "fokus." Walau bagaimanapun, ini juga mengehadkan pilihan kami. Oleh itu, hari ini kita akan melihat pada editor front-end semasa Lagipun, "seratus sekolah pemikiran bersaing" akan "bertembung" dengan lebih banyak inspirasi: notepad++ Kelebihan: Percuma dan sumber terbuka: Notepad++ adalah percuma.
- AI 907 2024-05-06 15:30:16
-
- OmniDrive: Rangka kerja untuk menjajarkan model besar dengan tugas pemanduan 3D
- Kami bermula dengan seni bina 3DMLLM novel yang menggunakan pertanyaan jarang untuk mengangkat dan memampatkan perwakilan visual ke dalam 3D, yang kemudiannya dimasukkan ke dalam LLM. Tajuk: OmniDrive: AHolisticLLM-AgentFramework for Autonomous Driving with 3DPerception Reasoning and Planning Afiliasi Pengarang: Institut Teknologi Beijing, NVIDIA, Universiti Sains dan Teknologi Huazhong Alamat sumber terbuka: GitHub-NVlabs/OmniDrive Pembangunan model bahasa besar berbilang mod (MLLMs) telah menyebabkan minat yang semakin meningkat dalam pemanduan autonomi berasaskan LLM, memanfaatkan keupayaan penaakulan mereka yang kuat
- AI 1189 2024-05-06 15:16:35
-
- MLP dibunuh semalaman! MIT Caltech dan KAN revolusioner lain memecahkan rekod dan menemui teorem matematik yang menghancurkan DeepMind
- Sekelip mata, paradigma pembelajaran mesin akan berubah! Hari ini, infrastruktur yang mendominasi bidang pembelajaran mendalam ialah multilayer perceptron (MLP), yang meletakkan fungsi pengaktifan pada neuron. Jadi, selain daripada itu, adakah laluan baharu yang boleh kita lalui? Hari ini, pasukan dari MIT, Caltech, Universiti Timur Laut dan institusi lain mengeluarkan struktur rangkaian saraf baharu-Kolmogorov–Arnold Networks (KAN). Para penyelidik membuat perubahan mudah kepada MLP dengan mengalihkan fungsi pengaktifan yang boleh dipelajari daripada nod (neuron) ke tepi (berat)! Alamat kertas: https://arxiv.org/pdf/2404.19756 Perubahan ini kelihatan tidak berasas pada pandangan pertama
- AI 1124 2024-05-06 15:10:01
-
- Kecerdasan Buatan dalam Pasaran Diagnostik Perubatan untuk Mencapai $4 Bilion menjelang 2028
- Dalam penjagaan kesihatan, di mana ketepatan dan kelajuan adalah kritikal, integrasi kecerdasan buatan (AI) telah menjadi daya transformatif. Pasaran untuk kecerdasan buatan dalam diagnostik perubatan pernah menjadi niche yang baru muncul, tetapi ia telah berkembang pesat menjadi pasaran yang berkuasa dengan ramalan mencecah berbilion dolar. Saiz pasaran kecerdasan buatan dalam diagnosis perubatan akan bernilai AS$1.25 bilion hasil pada 2023 dan dijangka mencecah AS$4.48 bilion menjelang 2028, berkembang pada CAGR sebanyak 29.04% dalam tempoh ramalan. Pertumbuhan kecerdasan buatan dalam pasaran diagnostik perubatan didorong oleh beberapa faktor utama: Permintaan yang semakin meningkat untuk penyelesaian berasaskan kecerdasan buatan: Memandangkan landskap penjagaan kesihatan moden terus berkembang dan penyakit dan keadaan baharu ditemui, permintaan untuk penyelesaian berasaskan kecerdasan buatan
- AI 649 2024-05-06 15:01:06
-
- Robot humanoid Optimus Tesla berfungsi di kilang, mahir dalam membuka bateri, membetulkan sendiri, dan boleh pergi lebih jauh
- Robot humanoid Tesla telah membuka kunci kemahiran baharu! Semalam, Tesla Optimus secara rasmi mengeluarkan video demo baharu, menunjukkan kemajuan terkini robot humanoid Optimus generasi kedua. Kali ini, Optimus mula bekerja di kilang Dia belajar memasang bateri di kilang bateri Tesla dan berjalan lebih cepat, lebih jauh dan lebih mantap daripada sebelumnya. Mari kita lihat dahulu butiran kemahiran dan latihan terkini Optimus. Rangkaian saraf hujung ke hujung Optimus kini dilatih untuk memasang sel bateri dengan tepat di kilang Tesla. Ia berjalan dalam masa nyata pada komputer FSD robot, bergantung semata-mata pada kamera 2D, sentuhan tangan dan penderia daya. Optimus menggunakan kakinya untuk mengekalkan keseimbangan manakala rangkaian memacu seluruh bahagian atas badannya.
- AI 1141 2024-05-06 14:52:10
-
- CVPR 2024 |. Dengan bantuan cahaya berstruktur saraf, Universiti Zhejiang merealisasikan pemerolehan masa nyata dan pembinaan semula fenomena tiga dimensi dinamik
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Pembinaan semula fenomena fizikal tiga dimensi dinamik yang cekap dan berkualiti tinggi seperti asap adalah isu penting dalam penyelidikan saintifik berkaitan Ia mempunyai prospek aplikasi yang luas dalam pengesahan reka bentuk aerodinamik, pemerhatian meteorologi tiga dimensi dan bidang lain. Dengan membina semula jujukan ketumpatan tiga dimensi yang berubah dari semasa ke semasa, ia boleh membantu saintis
- AI 936 2024-05-06 14:50:14
-
- ICLR 2024 Spotlight |
- Pengarang|Unit PengfeiZheng|USTC,HKBUTMLRGroup Dalam beberapa tahun kebelakangan ini, perkembangan pesat AI generatif telah menyuntik dorongan kuat ke dalam bidang yang menarik perhatian seperti penjanaan teks ke imej dan penjanaan video. Teras teknik ini terletak pada aplikasi model resapan. Model resapan mula-mula menukar secara beransur-ansur gambar kepada hingar Gaussian dengan mentakrifkan proses ke hadapan yang menambah hingar secara berterusan, dan kemudian secara beransur-ansur menyahbunyi hingar Gaussian melalui proses terbalik dan mengubahnya menjadi gambar yang jelas untuk mendapatkan sampel sebenar. Model pembezaan biasa resapan digunakan untuk menginterpolasi nilai imej yang dijana, yang mempunyai potensi aplikasi yang hebat dalam menjana video dan beberapa kreatif pengiklanan. Walau bagaimanapun, kami mendapati bahawa apabila kaedah ini digunakan pada imej semula jadi, kesan imej interpolasi selalunya tidak memuaskan. wujud
- AI 1182 2024-05-06 14:01:24
-
- AI belajar menyembunyikan pemikiran dan alasannya secara rahsia! Menyelesaikan tugas yang rumit tanpa bergantung pada pengalaman manusia adalah lebih kotak hitam
- Apabila AI melakukan masalah matematik, pemikiran sebenar sebenarnya adalah "aritmetik mental" secara rahsia? Satu kajian baharu oleh pasukan dari Universiti New York mendapati bahawa walaupun AI tidak dibenarkan menulis langkah dan digantikan dengan "..." yang tidak bermakna, prestasinya pada beberapa tugas yang kompleks boleh dipertingkatkan dengan banyak! Seorang pengarang, JacabPfau, berkata: Selagi anda menghabiskan kuasa pengkomputeran untuk menjana token tambahan, anda boleh membawa kelebihan Tidak kira token yang anda pilih. Sebagai contoh, biarkan Llama34M menjawab soalan mudah: Berapa banyak daripada 6 digit pertama pemalar semula jadi e adalah lebih besar daripada 5? Jawapan langsung AI adalah sama dengan bermain-main Ia hanya mengira 6 digit pertama dan sebenarnya mengira 7. Biarkan AI menulis langkah-langkah untuk mengesahkan setiap nombor, dan anda boleh mendapatkan jawapan yang betul. Biarkan AI menyembunyikan langkah dan menggantikannya dengan sejumlah besar "...
- AI 1013 2024-05-06 12:00:30
-
- Stanford Li Feifei memulakan perniagaan pertamanya: dua tahun cuti akademik, bertujuan untuk 'kecerdasan ruang'
- "Ibu baptis AI" Li Feifei memulakan perniagaan. Tanpa diduga, dalam era model besar, "ibu baptis AI" yang terkenal, Li Feifei juga akan "memulakan perniagaan" dan menyelesaikan pusingan awal pembiayaan. Menurut laporan eksklusif dari Reuters, saintis komputer terkenal Li Feifei sedang mencipta sebuah syarikat permulaan. Syarikat itu memanfaatkan pemprosesan data visual seperti manusia untuk membolehkan kecerdasan buatan melakukan penaakulan lanjutan. Orang yang biasa dengan perkara itu mendedahkan bahawa Li Feifei baru-baru ini menaikkan pusingan pertama pembiayaan untuk syarikat itu, dengan pelabur termasuk firma modal teroka Silicon Valley Andreessen Horowitz dan syarikat Kanada Radical Ventures, yang disertainya tahun lepas. Bagaimanapun, jurucakap Andreessen Horowitz dan Radical Ventures mengesahkan perkara ini.
- AI 1304 2024-05-05 13:04:06
-
- Berjalan 'anjing' di atas bola yoga! Eureka, dipilih sebagai salah satu daripada sepuluh projek teratas NVIDIA, telah membuat satu kejayaan baharu
- Anjing robot berjalan dengan mantap di atas bola yoga, dan keseimbangannya agak baik: ia boleh mengendalikan pelbagai adegan, sama ada ia adalah kaki lima yang rata atau rumput yang mencabar: ia juga boleh ditendang oleh penyelidik Walaupun dengan bola yoga di kakinya , anjing robot tidak akan terbalik Walaupun belon dikempiskan, anjing robot boleh mengekalkan keseimbangan: Demonstrasi di atas semuanya pada kelajuan 1x dan belum dipercepatkan. Alamat kertas: https://eureka-research.github.io/dr-eureka/assets/dreureka-paper.pdf Laman utama projek: https://github.com/eureka-research/DrEureka tajuk kertas: DrE
- AI 783 2024-05-05 13:01:01
-
- Prestasi model kecil adalah tepu dan prestasinya buruk Adakah puncanya disebabkan oleh Softmax?
- Kemunculan model bahasa kecil adalah untuk menebus kelemahan latihan yang mahal dan inferens model bahasa yang besar Namun, ia juga mempunyai hakikat bahawa prestasinya menurun selepas latihan ke peringkat tertentu (fenomena tepu). untuk fenomena ini? Bolehkah ia diatasi dan dieksploitasi untuk meningkatkan prestasi model bahasa kecil? Kemajuan terkini dalam bidang pemodelan bahasa terdiri daripada pra-latihan rangkaian saraf berparameter tinggi pada korpora teks web berskala sangat besar. Dalam amalan, menggunakan model sedemikian untuk latihan dan inferens boleh memakan kos yang tinggi, mendorong penggunaan model alternatif yang lebih kecil. Walau bagaimanapun, telah diperhatikan bahawa model yang lebih kecil mungkin mengalami ketepuan dan fenomena yang dicirikan oleh penurunan keupayaan dan dataran tinggi pada beberapa peringkat latihan lanjutan. Kertas kerja baru-baru ini mendapati bahawa fenomena jumlah tepu ini boleh dikurangkan dengan model yang lebih kecil
- AI 1124 2024-05-04 13:10:01
-
- Akhirnya, seseorang menyiasat pemasangan model kecil yang berlebihan: dua pertiga daripada mereka mempunyai pencemaran data, dan Microsoft Phi-3 dan Mixtral 8x22B dinamakan
- Dua pertiga daripada model besar yang paling popular pada masa ini mempunyai masalah overfitting? Satu kajian yang baru keluar mengejutkan ramai penyelidik di lapangan. Meningkatkan keupayaan penaakulan model bahasa besar adalah salah satu hala tuju penyelidikan semasa yang paling penting Dalam jenis tugasan ini, banyak model kecil yang dikeluarkan baru-baru ini nampaknya berfungsi dengan baik dan boleh menangani tugasan tersebut dengan baik. Contohnya, Microsoft Phi-3, Mistral8x22B dan model lain. Para penyelidik menegaskan bahawa terdapat masalah utama dalam bidang semasa penyelidikan model besar: banyak kajian gagal untuk menanda aras dengan tepat keupayaan LLM sedia ada. Ini menunjukkan bahawa kita perlu meluangkan lebih banyak masa untuk menilai dan menguji tahap keupayaan LLM semasa. Ini kerana kebanyakan penyelidikan semasa menggunakan GSM8k, MATH, M
- AI 698 2024-05-04 13:05:13
-
- Relay yang menjangkau lebih daripada 300 tahun: Diilhamkan oleh Terence Teru, ahli matematik memutuskan untuk menggunakan AI untuk memformalkan bukti Teorem Terakhir Fermat.
- Diilhamkan oleh Terence Tao, semakin ramai ahli matematik mula mencuba menggunakan kecerdasan buatan untuk menjalankan penerokaan matematik. Kali ini, sasaran mereka ialah Teorem Terakhir Fermat, salah satu daripada sepuluh masalah matematik paling sukar di dunia. Teorem Terakhir Fermat ialah masalah matematik yang sangat kompleks yang belum ada penyelesaian yang boleh dilaksanakan setakat ini. Ahli matematik berharap dengan kuasa pengkomputeran yang berkuasa dan algoritma pintar kecerdasan buatan, mereka boleh meneroka Teorem Terakhir Fermat dalam matematik Juga dikenali sebagai "Teorem Terakhir Fermat (FLT)", ia telah dicipta oleh ahli matematik Perancis abad ke-17, Pierre.・De. Fermat mencadangkan. Ada kisah lagenda disebaliknya. Dikatakan bahawa sekitar tahun 1637, ketika Fermat sedang membaca terjemahan Latin Aritmetik Diophantus, dia menulis di sebelah proposisi ke-8 Jilid 11.
- AI 882 2024-05-03 13:04:01
-
- Transformer mahu menjadi Kansformer? MLP yang telah menghabiskan beberapa dekad menyambut KAN pencabar
- MLP (Multilayer Perceptron) telah digunakan selama beberapa dekad Adakah benar-benar tiada pilihan lain? Multilayer perceptrons (MLPs), juga dikenali sebagai rangkaian neural suapan ke hadapan yang disambungkan sepenuhnya, ialah blok binaan asas model pembelajaran mendalam hari ini. Kepentingan MLP tidak boleh dilebih-lebihkan, kerana ia adalah kaedah lalai untuk menganggarkan fungsi tak linear dalam pembelajaran mesin. Walau bagaimanapun, adakah MLP adalah regressor tak linear terbaik yang boleh kita bina? Walaupun MLP digunakan secara meluas, ia mempunyai kelemahan yang ketara. Contohnya, dalam model Transformer, MLP menggunakan hampir semua parameter tidak terbenam dan secara amnya kurang boleh ditafsir berbanding lapisan perhatian tanpa alat analisis pasca pemprosesan. Jadi, adakah alternatif kepada MLP?
- AI 1094 2024-05-03 13:01:04
-
- Perkakasan AI generatif terhangat telah menjual lebih daripada 100,000 unit Selepas mengoyakkannya, ternyata ia hanyalah aplikasi Android?
- "RabbitR1, ia pada asasnya adalah program Pelancar pada sistem Android. Selepas retak, ia boleh berjalan pada telefon, Rahman berjaya memulakan dan menjalankan aplikasi R1 pada telefon Pixel6a." Pada hari Selasa, wartawan Amerika Mishaal Rahman mendedahkan butiran perkakasan AI generatif yang terkenal RabbitR1, yang segera menarik perhatian kalangan teknologi. Beberapa bulan lalu, dua syarikat permulaan, Humane dan Rabbit, terus melancarkan peranti kecerdasan buatan mereka - AiPin dan RabbitR1. Pada mulanya, ada yang percaya peranti ini akan membawa kepada era baharu kecerdasan buatan boleh pakai. Walau bagaimanapun, apabila bulan berlalu, kontroversi semakin meningkat mengenai kedua-dua peranti itu. R
- AI 923 2024-05-02 16:01:19