lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Falcon kembali selepas setahun! 11 bilion parameter dan 5.5 trilion token, prestasi mengatasi Llama 3
- Dalam beberapa hari lepas, perhatian dunia nampaknya telah tertarik dengan GPT-4o yang dikeluarkan oleh OpenAI Pada masa yang sama, pencabar OpenAI turut mencipta sejarah secara serentak. Hanya pada 14 Mei, Institut Inovasi Teknologi (TII) di bawah Majlis Penyelidikan Teknologi Termaju Abu Dhabi (ATRC) mengeluarkan model generasi baharu Falcon2. Falcon211B telah membuka akses Falcon211BVLM akan membuka generasi baharu "Falcon" (Falcon bermaksud Falcon) pada jam 12 tengah hari pada 14 Mei untuk kembali ke arena Setelah dilancarkan, ia dengan pantas menduduki senarai hangat HN. Tahun lepas, Falcon mengejutkan semua orang apabila ia mula-mula dilancarkan, mengatasi Llama dengan kelebihan yang hebat. Menurut HuggingFace
- AI 1101 2024-06-09 17:25:31
-
- Ketua Pegawai Eksekutif OpenAI menjawab 'perjanjian senyap', pertikaian itu masih berpunca daripada kepentingan ekuiti, Ultraman: Ini salah saya
- Sejak peletakan jawatan Ilya dan Jan, ketua penjajaran super, OpenAI telah dibahagikan secara dalaman, dan semakin ramai orang telah meletak jawatan, yang juga telah menyebabkan lebih banyak konflik. Semalam, tumpuan kontroversi datang kepada "perjanjian senyap" yang ketat. Bekas pekerja OpenAI, Kelsey Piper mengumumkan bahawa arahan dokumen penerimaan pekerja termasuk: "Dalam tempoh enam puluh hari selepas meninggalkan syarikat, anda mesti menandatangani dokumen pemisahan yang mengandungi "pengecualian am." Jika anda tidak menyelesaikannya dalam masa 60 hari, ekuiti anda faedah akan dibatalkan.” Tangkapan skrin dokumen yang menyebabkan kontroversi ini mendorong CEO OpenAI untuk bertindak balas dengan cepat: Kami tidak pernah mendapatkan semula hak milik sesiapa Jika orang tidak menandatangani perjanjian pemisahan (atau tidak bersetuju dengan perjanjian tanpa memperlekehkan). ,
- AI 882 2024-06-09 17:07:32
-
- Universiti Tsinghua, Huawei dan lain-lain mencadangkan iVideoGPT: pengkhususan dalam model dunia interaktif
- iVideoGPT memenuhi keperluan interaktiviti tinggi model dunia. Model generatif telah mencapai kemajuan yang ketara dalam beberapa tahun kebelakangan ini, dengan penjanaan video menjadi sempadan baharu. Aplikasi penting model video generatif ini adalah untuk belajar dengan cara tanpa pengawasan pada data berskala Internet yang pelbagai untuk membina model dunia ramalan. Model dunia ini dijangka mengumpul pengetahuan yang waras tentang cara dunia berfungsi, membenarkan ramalan hasil masa depan yang berpotensi berdasarkan tingkah laku ejen. Dengan memanfaatkan model dunia ini, ejen yang menggunakan pembelajaran pengukuhan boleh membayangkan, menaakul dan merancang dalam model dunia, dengan itu memperoleh kemahiran baharu dengan lebih selamat dan cekap di dunia nyata dengan sedikit percubaan. Walaupun model generatif pada asasnya berkaitan dengan model dunia, ia adalah
- AI 879 2024-06-09 17:06:01
-
- Kerja baru oleh Bengio et al.: Perhatian boleh dianggap sebagai RNN Model baharu adalah setanding dengan Transformer, tetapi sangat menjimatkan memori.
- Kemajuan dalam pemodelan jujukan telah sangat memberi kesan kerana ia memainkan peranan penting dalam pelbagai aplikasi, termasuk pembelajaran pengukuhan (cth., robotik dan pemanduan autonomi), klasifikasi siri masa (cth., pengesanan penipuan kewangan dan diagnosis perubatan), dsb. Dalam beberapa tahun kebelakangan ini, kemunculan Transformer telah menandakan kejayaan besar dalam pemodelan jujukan, terutamanya disebabkan oleh fakta bahawa Transformer menyediakan seni bina berprestasi tinggi yang boleh memanfaatkan pemprosesan selari GPU. Walau bagaimanapun, Transformer mempunyai overhed pengiraan yang tinggi semasa inferens, terutamanya disebabkan oleh pengembangan kuadratik memori dan keperluan pengkomputeran, dengan itu mengehadkan penggunaannya dalam persekitaran sumber rendah (cth., peranti mudah alih dan terbenam). Walaupun teknologi seperti caching KV boleh digunakan untuk meningkatkan kecekapan inferens,
- AI 607 2024-06-09 16:50:32
-
- Sambil memegang kain kasa dan menggenggam jarum, NVIDIA bekerjasama dengan banyak universiti untuk membangunkan robot pembedahan
- Editor | NVIDIA bekerjasama dengan penyelidik dari University of Toronto, University of California, Berkeley, ETH Zurich, dan Institut Teknologi Georgia untuk membangunkan ORBIT-Surgical, rangka kerja simulasi untuk melatih robot yang boleh meningkatkan kemahiran pasukan teknikal sambil mengurangkan beban kognitif pakar bedah. ORBIT-Surgical ialah rangka kerja simulasi berasaskan kecerdasan buatan yang mencapai simulasi pembedahan yang sangat realistik melalui persekitaran pembedahan maya dan sistem bimbingan pintar. Doktor boleh berinteraksi dengan sistem ini untuk mensimulasikan pelbagai situasi dan kerumitan pembedahan sebenar. Teknologi simulasi ini bukan sahaja dapat membantu melatih pesakit yang menjalani pembedahan laparoskopi (juga
- AI 493 2024-06-09 13:23:16
-
- CLIP dipilih sebagai CVPR apabila digunakan sebagai RNN: ia boleh membahagikan banyak konsep tanpa latihan |
- CLIP dipanggil secara kitaran untuk membahagikan konsep yang tidak terkira dengan berkesan tanpa latihan tambahan. Sebarang frasa termasuk watak filem, tanda tempat, jenama dan kategori umum. Keputusan baharu pasukan bersama Universiti Oxford dan Penyelidikan Google ini telah diterima oleh CVPR2024 dan kod tersebut telah menjadi sumber terbuka. Pasukan itu mencadangkan teknologi baharu yang dipanggil CLIPasRNN (pendek kata CaR), yang menyelesaikan beberapa masalah utama dalam bidang pembahagian imej kosa kata terbuka: Tiada data latihan diperlukan: kaedah tradisional memerlukan sejumlah besar anotasi topeng atau set data teks imej untuk halus -tala, CaR Teknologi ini berfungsi tanpa sebarang data latihan tambahan. Had perbendaharaan kata terbuka: Model bahasa visual (VLM) pra-latihan terhad dalam keupayaan mereka untuk mengendalikan perbendaharaan kata terbuka selepas penalaan halus. C
- AI 374 2024-06-09 12:53:28
-
- Menyokong sintesis video definisi tinggi satu minit Huake et al mencadangkan rangka kerja baharu untuk penjanaan video tarian manusia, UniAnimate.
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penjanaan video tarian manusia ialah tugas sintesis video boleh dikawal yang menarik dan mencabar, bertujuan untuk menjana imej seperti hidupan berkualiti tinggi berdasarkan imej rujukan input dan urutan pose sasaran. Dengan perkembangan pesat teknologi penjanaan video, terutamanya evolusi berulang model generatif,
- AI 976 2024-06-09 11:10:58
-
- Algoritma kawalan yang lebih sutera daripada PID & Carnegie Mellon University
- Algoritma kawalan MPC, nama penuh ModelPredictiveControl (Model Predictive Control), ialah teknologi kawalan berdasarkan model dinamik sistem. Ia berfungsi dengan meramalkan kelakuan masa depan sistem melalui model matematik dan mengoptimumkan input kawalan sistem berdasarkan ramalan ini untuk mencapai output yang dikehendaki. Idea teras algoritma kawalan MPC adalah untuk mendapatkan input kawalan terbaik dengan mengoptimumkan keputusan ramalan untuk satu tempoh masa pada masa hadapan dalam setiap kitaran kawalan. Pengoptimuman ini adalah berdasarkan beberapa keputusan ramalan untuk mengoptimumkan input kawalan sistem untuk mencapai output yang dikehendaki. Algoritma kawalan MPC digunakan secara meluas dan amat sesuai untuk sistem kawalan yang perlu memenuhi beberapa kekangan. Dengan menggabungkan model sistem dan teknik pengoptimuman, MP
- AI 766 2024-06-09 09:57:28
-
- Skandal tembakan membuatkan pengarah Stanford AI Lab marah! Dua ahli pasukan plagiarisme bertanggungjawab dan seorang hilang, dan rekod jenayahnya didedahkan Netizen: Fahami semula model sumber terbuka China
- Insiden pasukan Stanford memplagiat model besar dari Universiti Tsinghua datang kemudian - pasukan Llama3-V mengakui plagiarisme, dan dua daripada mahasiswa dari Stanford malah memutuskan diri mereka daripada pengarang lain. Tweet permohonan maaf terbaru dihantar oleh SiddharthSharma dan AkshGarg. Bukan antara mereka, Mustafa Aljadery (pendek kata Lao Mu) dari University of Southern California dituduh sebagai pihak yang bersalah utama, dan dia telah hilang sejak semalam: Kami berharap Lao Mu akan membuat kenyataan pertama, tetapi kami telah tidak dapat menghubunginya sejak semalam. Siddharth, saya sendiri (Akshi) dan Lao Mu mengeluarkan Llama3-V, dan Lao Mu menulis kod untuk projek itu. Siddharth dan peranan saya adalah untuk membantunya memulakan Medium dan T
- AI 1159 2024-06-09 09:38:08
-
- Setelah dipintas oleh OpenAI sekali lagi, Google melancarkan model bahasa visual sumber terbuka: PaliGemma
- Prakata Model ini menggabungkan model visual SigLIP dan model bahasa Gemma, yang kedua-duanya merupakan komponen terbuka, menjadikan PaliGemma cemerlang dalam memproses tugas yang menggabungkan penglihatan dan bahasa. Senario penggunaan PaliGemma termasuk sari kata imej, tag imej dan jawapan soalan visual. Senario aplikasi ini mengambil kesempatan daripada keupayaan PaliGemma untuk memahami kandungan imej dan mengekstrak ciri utama, dan kemudian menukar maklumat ini kepada output bahasa untuk membolehkan interaksi dengan pengguna atau penjanaan kandungan automatik. Fleksibiliti ini menjadikan PaliGemma sesuai bukan sahaja untuk persekitaran penyelidikan dan pembangunan, tetapi juga untuk aplikasi komersial seperti perkhidmatan pelanggan, sistem pengesyoran kandungan, dsb. Gambar Apa yang boleh PaliGemma lakukan Gambar boleh digunakan apabila digesa.
- AI 550 2024-06-09 09:17:06
-
- Pertempuran sebenar LightGBM + pelarasan parameter carian rawak: kadar ketepatan 96.67%
- Hai semua, saya Peter~LightGBM ialah algoritma pembelajaran mesin klasik. Latar belakang, prinsip dan cirinya sangat wajar untuk dikaji. Algoritma LightGBM menghasilkan ciri seperti kecekapan, kebolehskalaan dan ketepatan yang tinggi. Artikel ini akan memperkenalkan secara ringkas ciri dan prinsip LightGBM serta beberapa kes berdasarkan LightGBM dan pengoptimuman carian rawak. Algoritma LightGBM Dalam bidang pembelajaran mesin, Gradient Boosting Machines (GBMs) ialah kelas algoritma pembelajaran ensemble berkuasa yang membina model berkuasa dengan menambah pelajar lemah secara beransur-ansur (biasanya pepohon keputusan) untuk meminimumkan ralat ramalan. GBM sering digunakan untuk meminimumkan pra-
- AI 705 2024-06-08 22:45:30
-
- Model kod sumber terbuka Mistral mengambil takhta! Codestral tergila-gila dengan latihan dalam lebih 80 bahasa, dan pembangun Tongyi domestik meminta untuk mengambil bahagian!
- Dihasilkan oleh tindanan teknologi 51CTO (WeChat ID: blog51cto) Mistral mengeluarkan model kod pertamanya Codestral-22B! Apa yang menggilakan model ini bukan sahaja kerana ia dilatih dalam lebih 80 bahasa pengaturcaraan, termasuk Swift, dll. yang banyak model kod diabaikan. Kelajuan mereka tidak sama. Ia dikehendaki menulis sistem "terbit/langgan" menggunakan bahasa Go. GPT-4o di sini sedang dikeluarkan, dan Codestral menyerahkan kertas dengan pantas sehingga sukar untuk dilihat! Memandangkan model itu baru sahaja dilancarkan, ia masih belum diuji secara terbuka. Tetapi menurut orang yang bertanggungjawab ke atas Mistral, Codestral kini merupakan model kod sumber terbuka yang berprestasi terbaik. Rakan-rakan yang berminat dengan gambar boleh bergerak ke: - Peluk muka: https
- AI 1113 2024-06-08 21:55:01
-
- Ke arah 'Gelung Tertutup' |. PlanAgent: SOTA baharu untuk perancangan gelung tertutup pemanduan autonomi berdasarkan MLLM!
- Pasukan pembelajaran pengukuhan mendalam Institut Automasi, Akademi Sains China, bersama-sama dengan Li Auto dan lain-lain, mencadangkan rangka kerja perancangan gelung tertutup baharu untuk pemanduan autonomi berdasarkan model bahasa besar berbilang mod MLLM - PlanAgent. Kaedah ini mengambil pandangan mata dari tempat kejadian dan gesaan teks berasaskan graf sebagai input, dan menggunakan pemahaman pelbagai modal dan keupayaan penaakulan akal bagi model bahasa besar berbilang mod untuk melaksanakan penaakulan hierarki daripada pemahaman adegan kepada generasi. arahan pergerakan mendatar dan menegak, dan Selanjutnya menjana arahan yang diperlukan oleh perancang. Kaedah ini diuji pada penanda aras nuPlan berskala besar dan mencabar, dan eksperimen menunjukkan bahawa PlanAgent mencapai prestasi terkini (SOTA) pada kedua-dua senario biasa dan panjang. Berbanding dengan kaedah model bahasa besar (LLM) konvensional, PlanAgent
- AI 313 2024-06-08 21:30:27
-
- Bina semula LLaVA secara modular Untuk menggantikan komponen, cuma tambah 1-2 fail Kilang TinyLLaVA sumber terbuka ada di sini.
- Projek TinyLLaVA+ telah dicipta bersama oleh pasukan Profesor Wu Ji dari Makmal Pemprosesan Isyarat Multimedia dan Maklumat Pintar (MSIIP) Jabatan Elektronik, Universiti Tsinghua dan pasukan Profesor Huang Lei dari Sekolah Kepintaran Buatan, Universiti Beihang. Makmal MSIIP Universiti Tsinghua telah lama komited dalam bidang penyelidikan seperti penjagaan perubatan pintar, pemprosesan bahasa semula jadi dan penemuan pengetahuan, dan pelbagai mod. Pasukan Beijing Airlines telah lama komited dalam bidang penyelidikan seperti pembelajaran mendalam, pelbagai mod dan penglihatan komputer. Matlamat projek TinyLLaVA+ adalah untuk membangunkan pembantu pintar merentas bahasa kecil dengan keupayaan pelbagai mod seperti pemahaman bahasa, soal jawab dan dialog. Pasukan projek akan memberikan permainan penuh untuk kelebihan masing-masing, bersama-sama mengatasi masalah teknikal, dan merealisasikan reka bentuk dan pembangunan pembantu pintar. Ini akan memberi peluang untuk penjagaan perubatan pintar, pemprosesan bahasa semula jadi dan pengetahuan
- AI 420 2024-06-08 21:21:29
-
- Adakah A.S. jauh ketinggalan dalam aplikasi robotik? Selepas 15 tahun, sepuluh universiti terkemuka memulakan semula 'Pelan Hala Tuju Robotik Kebangsaan'
- Teknologi robotik mempunyai sejarah selama 70 tahun, dan Amerika Syarikat telah mendahului sejak penubuhannya. Sehingga 2009, apabila Amerika Syarikat mengeluarkan Pelan Hala Tuju Robotik Kebangsaan buat kali pertama, aplikasi Amerika Syarikat dalam aplikasi perindustrian (seperti kereta, aeroangkasa dan peralatan rumah) telah menurun ke tempat keempat di dunia. Sejak 2015, Amerika Syarikat terus meningkatkan penggunaan teknologi robotiknya, menduduki tempat kesepuluh di dunia Pasaran robot Asia telah berkembang 5-10 kali ganda daripada pasaran A.S. China "jauh ke hadapan" dalam bidang ini Pada tahun 2023, China membeli kira-kira 52% robot yang dijual, menunjukkan bahawa robotik tidak lagi menjadi keutamaan negara di Amerika Syarikat. Terbaru, dari University of California, Pennsylvania
- AI 1060 2024-06-08 20:57:00