lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Stanford Li Feifei memulakan perniagaan pertamanya: dua tahun cuti akademik, bertujuan untuk 'kecerdasan ruang'
- "Ibu baptis AI" Li Feifei memulakan perniagaan. Tanpa diduga, dalam era model besar, "ibu baptis AI" yang terkenal, Li Feifei juga akan "memulakan perniagaan" dan menyelesaikan pusingan awal pembiayaan. Menurut laporan eksklusif dari Reuters, saintis komputer terkenal Li Feifei sedang mencipta sebuah syarikat permulaan. Syarikat itu memanfaatkan pemprosesan data visual seperti manusia untuk membolehkan kecerdasan buatan melakukan penaakulan lanjutan. Orang yang biasa dengan perkara itu mendedahkan bahawa Li Feifei baru-baru ini menaikkan pusingan pertama pembiayaan untuk syarikat itu, dengan pelabur termasuk firma modal teroka Silicon Valley Andreessen Horowitz dan syarikat Kanada Radical Ventures, yang disertainya tahun lepas. Bagaimanapun, jurucakap Andreessen Horowitz dan Radical Ventures mengesahkan perkara ini.
- AI 1039 2024-05-05 13:04:06
-
- Berjalan 'anjing' di atas bola yoga! Eureka, dipilih sebagai salah satu daripada sepuluh projek teratas NVIDIA, telah membuat satu kejayaan baharu
- Anjing robot berjalan dengan mantap di atas bola yoga, dan keseimbangannya agak baik: ia boleh mengendalikan pelbagai adegan, sama ada ia adalah kaki lima yang rata atau rumput yang mencabar: ia juga boleh ditendang oleh penyelidik Walaupun dengan bola yoga di kakinya , anjing robot tidak akan terbalik Walaupun belon dikempiskan, anjing robot boleh mengekalkan keseimbangan: Demonstrasi di atas semuanya pada kelajuan 1x dan belum dipercepatkan. Alamat kertas: https://eureka-research.github.io/dr-eureka/assets/dreureka-paper.pdf Laman utama projek: https://github.com/eureka-research/DrEureka tajuk kertas: DrE
- AI 465 2024-05-05 13:01:01
-
- Prestasi model kecil adalah tepu dan prestasinya buruk Adakah puncanya disebabkan oleh Softmax?
- Kemunculan model bahasa kecil adalah untuk menebus kelemahan latihan yang mahal dan inferens model bahasa yang besar Namun, ia juga mempunyai hakikat bahawa prestasinya menurun selepas latihan ke peringkat tertentu (fenomena tepu). untuk fenomena ini? Bolehkah ia diatasi dan dieksploitasi untuk meningkatkan prestasi model bahasa kecil? Kemajuan terkini dalam bidang pemodelan bahasa terdiri daripada pra-latihan rangkaian saraf berparameter tinggi pada korpora teks web berskala sangat besar. Dalam amalan, menggunakan model sedemikian untuk latihan dan inferens boleh memakan kos yang tinggi, mendorong penggunaan model alternatif yang lebih kecil. Walau bagaimanapun, telah diperhatikan bahawa model yang lebih kecil mungkin mengalami ketepuan dan fenomena yang dicirikan oleh penurunan keupayaan dan dataran tinggi pada beberapa peringkat latihan lanjutan. Kertas kerja baru-baru ini mendapati bahawa fenomena jumlah tepu ini boleh dikurangkan dengan model yang lebih kecil
- AI 964 2024-05-04 13:10:01
-
- Akhirnya, seseorang menyiasat pemasangan model kecil yang berlebihan: dua pertiga daripada mereka mempunyai pencemaran data, dan Microsoft Phi-3 dan Mixtral 8x22B dinamakan
- Dua pertiga daripada model besar yang paling popular pada masa ini mempunyai masalah overfitting? Satu kajian yang baru keluar mengejutkan ramai penyelidik di lapangan. Meningkatkan keupayaan penaakulan model bahasa besar adalah salah satu hala tuju penyelidikan semasa yang paling penting Dalam jenis tugasan ini, banyak model kecil yang dikeluarkan baru-baru ini nampaknya berfungsi dengan baik dan boleh menangani tugasan tersebut dengan baik. Contohnya, Microsoft Phi-3, Mistral8x22B dan model lain. Para penyelidik menegaskan bahawa terdapat masalah utama dalam bidang semasa penyelidikan model besar: banyak kajian gagal untuk menanda aras dengan tepat keupayaan LLM sedia ada. Ini menunjukkan bahawa kita perlu meluangkan lebih banyak masa untuk menilai dan menguji tahap keupayaan LLM semasa. Ini kerana kebanyakan penyelidikan semasa menggunakan GSM8k, MATH, M
- AI 403 2024-05-04 13:05:13
-
- Relay yang menjangkau lebih daripada 300 tahun: Diilhamkan oleh Terence Teru, ahli matematik memutuskan untuk menggunakan AI untuk memformalkan bukti Teorem Terakhir Fermat.
- Diilhamkan oleh Terence Tao, semakin ramai ahli matematik mula mencuba menggunakan kecerdasan buatan untuk menjalankan penerokaan matematik. Kali ini, sasaran mereka ialah Teorem Terakhir Fermat, salah satu daripada sepuluh masalah matematik paling sukar di dunia. Teorem Terakhir Fermat ialah masalah matematik yang sangat kompleks yang belum ada penyelesaian yang boleh dilaksanakan setakat ini. Ahli matematik berharap dengan kuasa pengkomputeran yang berkuasa dan algoritma pintar kecerdasan buatan, mereka boleh meneroka Teorem Terakhir Fermat dalam matematik Juga dikenali sebagai "Teorem Terakhir Fermat (FLT)", ia telah dicipta oleh ahli matematik Perancis abad ke-17, Pierre.・De. Fermat mencadangkan. Ada kisah lagenda disebaliknya. Dikatakan bahawa sekitar tahun 1637, ketika Fermat sedang membaca terjemahan Latin Aritmetik Diophantus, dia menulis di sebelah proposisi ke-8 Jilid 11.
- AI 542 2024-05-03 13:04:01
-
- Transformer mahu menjadi Kansformer? MLP yang telah menghabiskan beberapa dekad menyambut KAN pencabar
- MLP (Multilayer Perceptron) telah digunakan selama beberapa dekad Adakah benar-benar tiada pilihan lain? Multilayer perceptrons (MLPs), juga dikenali sebagai rangkaian neural suapan ke hadapan yang disambungkan sepenuhnya, ialah blok binaan asas model pembelajaran mendalam hari ini. Kepentingan MLP tidak boleh dilebih-lebihkan, kerana ia adalah kaedah lalai untuk menganggarkan fungsi tak linear dalam pembelajaran mesin. Walau bagaimanapun, adakah MLP adalah regressor tak linear terbaik yang boleh kita bina? Walaupun MLP digunakan secara meluas, ia mempunyai kelemahan yang ketara. Contohnya, dalam model Transformer, MLP menggunakan hampir semua parameter tidak terbenam dan secara amnya kurang boleh ditafsir berbanding lapisan perhatian tanpa alat analisis pasca pemprosesan. Jadi, adakah alternatif kepada MLP?
- AI 752 2024-05-03 13:01:04
-
- Perkakasan AI generatif terhangat telah menjual lebih daripada 100,000 unit Selepas mengoyakkannya, ternyata ia hanyalah aplikasi Android?
- "RabbitR1, ia pada asasnya adalah program Pelancar pada sistem Android. Selepas retak, ia boleh berjalan pada telefon, Rahman berjaya memulakan dan menjalankan aplikasi R1 pada telefon Pixel6a." Pada hari Selasa, wartawan Amerika Mishaal Rahman mendedahkan butiran perkakasan AI generatif yang terkenal RabbitR1, yang segera menarik perhatian kalangan teknologi. Beberapa bulan lalu, dua syarikat permulaan, Humane dan Rabbit, terus melancarkan peranti kecerdasan buatan mereka - AiPin dan RabbitR1. Pada mulanya, ada yang percaya peranti ini akan membawa kepada era baharu kecerdasan buatan boleh pakai. Walau bagaimanapun, apabila bulan berlalu, kontroversi semakin meningkat mengenai kedua-dua peranti itu. R
- AI 674 2024-05-02 16:01:19
-
- Yu Chengdong berundur sebagai CEO Huawei Terminal BG, He Gang akan mengambil alih
- Menurut beberapa laporan media, Huawei secara dalaman mengeluarkan dokumen pelarasan kakitangan pada petang 30 April, mengumumkan bahawa Yu Chengdong akan meletakkan jawatan sebagai Ketua Pegawai Eksekutif Huawei Terminal BG. Yu Chengdong akan kekal sebagai pengerusi Terminal BG. He Gang, bekas Huawei Terminal BG dan Ketua Pegawai Operasi, akan mengambil alih jawatan Ketua Pegawai Eksekutif Huawei Terminal BG. Menurut laporan, selain daripada perubahan dan pelarasan peribadi yang disebutkan di atas, dokumen itu tidak mengandungi sebarang maklumat lagi. Tiada penjelasan lanjut mengenai latar belakang perubahan kakitangan utama ini dan fokus perniagaan baharu Yu Chengdong selepas meletak jawatan sebagai Ketua Pegawai Eksekutif Terminal BG. Beberapa sumber berkata bahawa pelarasan ini adalah pelarasan struktur perniagaan rutin, yang akan membolehkan Yu Chengdong mempunyai lebih tenaga untuk mencipta produk berkualiti tinggi untuk pengguna. Yu Chengdong dilahirkan pada tahun 1969. Beliau lulus dari Jabatan Kawalan Automatik Universiti Politeknik Barat Laut dengan ijazah sarjana muda dan ijazah sarjana dari Universiti Tsinghua.
- AI 474 2024-05-02 16:01:14
-
- Bagaimanakah OctopusV3, dengan kurang daripada 1 bilion parameter, boleh dibandingkan dengan GPT-4V dan GPT-4?
- Ciri sistem AI berbilang modal ialah mereka boleh memproses dan mempelajari pelbagai jenis data termasuk bahasa semula jadi, penglihatan, audio, dll., untuk membimbing keputusan tingkah laku mereka. Baru-baru ini, penyelidikan mengenai menggabungkan data visual ke dalam model bahasa yang besar (seperti GPT-4V) telah mencapai kemajuan penting, tetapi cara menukar maklumat imej secara berkesan kepada operasi boleh laku untuk sistem AI masih menghadapi cabaran. Untuk merealisasikan transformasi maklumat imej, kaedah biasa ialah menukar data imej ke dalam perihalan teks yang sepadan, dan kemudian sistem AI beroperasi berdasarkan penerangan. Ini boleh dilakukan dengan melaksanakan pembelajaran terselia pada set data imej sedia ada, membolehkan sistem AI mempelajari secara automatik perhubungan pemetaan imej-ke-teks. Selain itu, kaedah pembelajaran pengukuhan juga boleh digunakan untuk mempelajari cara membuat keputusan berdasarkan maklumat imej dengan berinteraksi dengan persekitaran. yang lain
- AI 551 2024-05-02 16:01:01
-
- Dalam 12 tugas pemahaman video, Mamba pertama kali mengalahkan Transformer
- Tapak ini menerbitkan lajur dengan kandungan akademik dan teknikal. Dalam tahun-tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Meneroka alam baharu pemahaman video, model Mamba menerajui aliran baharu dalam penyelidikan penglihatan komputer! Batasan seni bina tradisional telah dipecahkan Model ruang negeri Mamba telah membawa perubahan revolusioner kepada bidang pemahaman video dengan kelebihan uniknya dalam pemprosesan urutan panjang. Dari Universiti Nanjing, Shanghai
- AI 1354 2024-05-01 08:20:15
-
- Memahami GraphRAG (1): Cabaran RAG
- RAG (RiskAssessmentGrid) ialah kaedah yang mempertingkatkan model bahasa besar (LLM) sedia ada dengan sumber pengetahuan luaran untuk memberikan jawapan yang lebih berkaitan kontekstual. Dalam RAG, komponen perolehan memperoleh maklumat tambahan, respons adalah berdasarkan sumber tertentu, dan kemudian menyuap maklumat ini ke dalam gesaan LLM supaya respons LLM adalah berdasarkan maklumat ini (fasa peningkatan). RAG lebih menjimatkan berbanding teknik lain seperti pemangkasan. Ia juga mempunyai kelebihan untuk mengurangkan halusinasi dengan menyediakan konteks tambahan berdasarkan maklumat ini (peringkat penambahan) - RAG anda menjadi kaedah aliran kerja untuk tugasan LLM hari ini (seperti pengesyoran, pengekstrakan teks, analisis sentimen, dsb.). Jika kita memecahkan idea ini dengan lebih lanjut, berdasarkan niat pengguna, kita biasanya melihat
- AI 965 2024-04-30 19:10:01
-
- Xiaohongshu membuat ejen pintar bergaduh! Dilancarkan bersama dengan Universiti Fudan untuk melancarkan alat sembang kumpulan eksklusif untuk model besar
- Bahasa bukan sahaja timbunan perkataan, tetapi juga karnival emotikon, lautan meme, dan medan perang untuk pahlawan papan kekunci (eh? Apa yang salah?). Bagaimanakah bahasa membentuk tingkah laku sosial kita? Bagaimanakah struktur sosial kita berkembang melalui komunikasi lisan yang berterusan? Baru-baru ini, penyelidik dari Universiti Fudan dan Xiaohongshu menjalankan perbincangan mendalam tentang isu ini dengan memperkenalkan platform simulasi yang dipanggil AgentGroupChat. Fungsi sembang kumpulan media sosial seperti WhatsApp adalah inspirasi untuk platform AgentGroupChat. Pada platform AgentGroupChat, Ejen boleh mensimulasikan pelbagai senario sembang dalam kumpulan sosial untuk membantu penyelidik memahami dengan mendalam kesan bahasa terhadap tingkah laku manusia. sepatutnya
- AI 1111 2024-04-30 18:40:23
-
- Versi GitHub Devin adalah dalam talian, anda boleh membangunkan aplikasi jika anda boleh menaip, Ketua Pegawai Eksekutif Microsoft: Tentukan Semula IDE
- "Versi GitHub Devin" Microsoft - Copilot WorkSpace, akhirnya dalam talian! WorkSpace ialah persekitaran pembangunan "Copilot native" baharu yang bertujuan untuk membenarkan semua pembangun menggunakan bahasa semula jadi untuk mengubah idea dalam fikiran mereka menjadi aplikasi. Dalam erti kata lain, selagi anda mempunyai idea dan boleh menaip, anda boleh melibatkan diri dalam pembangunan perisian. Aliran kerja bahasa semula jadi WorkSpace juga telah memenangi gelaran "versi GitHub Devin" yang dianugerahkan oleh netizen. Ketua Pegawai Eksekutif GitHub Domke berkata bahawa WorkSpace telah mengatasi fungsi asal Copilot dan akan mentakrifkan semula pengalaman pembangun. Ketua Pegawai Eksekutif Microsoft Nadella juga menyebut lagi
- AI 489 2024-04-30 17:55:24
-
- Cara memanfaatkan kecerdasan buatan dan pembelajaran mesin dalam perkhidmatan web
- Mengintegrasikan teknologi kecerdasan buatan ke dalam pelbagai produk telah menjadi pengubah permainan, terutamanya dalam sistem perkhidmatan rangkaian. Takrifan kecerdasan buatan telah berkembang untuk memasukkan heuristik dan kebarangkalian dalam kod pengaturcaraan, membuka jalan untuk pemprosesan data yang lebih cekap dan keupayaan menyelesaikan masalah. Pasaran pembelajaran mesin (ML) berkembang pesat di seluruh dunia. Pada 2022, ia akan bernilai kira-kira $19.2 bilion. Pakar meramalkan bahawa jumlah ini akan melonjak kepada $225.91 bilion menjelang 2030. Artikel ini menyelidiki kesan mendalam kecerdasan buatan dan pembelajaran mesin (ML) pada perkhidmatan web, mendedahkan cara ia merevolusikan cara kami memproses sejumlah besar data. Dalam beberapa tahun kebelakangan ini, teknologi pembelajaran mesin telah membuat penemuan besar dalam pelbagai bidang, terutamanya dalam pemprosesan data
- AI 730 2024-04-30 17:50:01
-
- Apakah potensi kecerdasan buatan kuantum?
- Dalam pasir yang berubah-ubah kecerdasan buatan (AI), seekor burung phoenix telah bangkit daripada abu, membawa kepada era baharu kecerdasan pengiraan—penyatuan fizik kuantum dan sihir pengiraan. Perhatian, pembaca, adalah kelahiran kecerdasan buatan kuantum, penumpuan zaman yang akan mentakrifkan semula trajektori kemajuan teknologi seperti yang kita ketahui. Memahami AI Kuantum: Perkahwinan Mekanik Kuantum dan Kepintaran Buatan Pada dasarnya, AI kuantum adalah seperti tarian antara alam halus fizik kuantum dan simfoni pengiraan kecerdasan buatan, serupa dengan pencarian antara yang misteri dan algoritma. Tidak seperti komputer konvensional yang goyah pada laluan binari mereka, AI kuantum boleh berputar dengan anggun di peringkat kuantum, menggunakan daya tarikan misteri qubit atau qubit. Organisma misteri ini mengingatkan kucing
- AI 403 2024-04-30 17:49:13