lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Menyesuaikan diri dengan pelbagai bentuk dan tugas, sistem pembelajaran robot sumber terbuka yang paling berkuasa 'Octopus' telah dilahirkan
- Apabila ia berkaitan dengan pembelajaran robot, pendekatan biasa ialah mengumpul set data khusus untuk robot dan tugas tertentu, dan kemudian menggunakannya untuk melatih dasar. Walau bagaimanapun, jika kaedah ini digunakan untuk belajar dari awal, data yang mencukupi perlu dikumpul untuk setiap tugas, dan keupayaan generalisasi dasar yang dihasilkan biasanya lemah. “Secara prinsipnya, pengalaman yang dikumpul daripada robot dan tugasan lain boleh memberikan penyelesaian yang mungkin, membolehkan model melihat pelbagai masalah kawalan robot, dan masalah ini boleh meningkatkan keupayaan dan prestasi generalisasi robot pada tugasan hiliran yang boleh mengendalikan pelbagai bahasa semula jadi dan tugas penglihatan komputer telah muncul, membina "model robot universal" masih sukar "Sangat sukar untuk melatih strategi kawalan bersatu untuk robot, termasuk
- AI 617 2024-06-02 10:04:53
-
- Mengapakah model bahasa kecil merupakan perkara besar seterusnya dalam dunia AI?
- Penterjemah |. Tinjauan Bugatti |. Chonglou Dalam bidang AI, gergasi teknologi telah bersaing untuk membina model bahasa yang semakin besar, dan kini trend baharu yang mengejutkan telah muncul: kecil itu besar. Memandangkan kemajuan pada model bahasa besar (LLM) menunjukkan tanda-tanda terhenti, penyelidik dan pembangun semakin menumpukan perhatian mereka kepada model bahasa kecil (SLM). Model AI yang padat, cekap dan boleh disesuaikan ini mencabar tanggapan bahawa "lebih besar adalah lebih baik" dan berjanji untuk mengubah cara kami mendekati pembangunan AI. Adakah LLM mula bertakung? Keputusan perbandingan prestasi Vellum dan HuggingFace yang dikeluarkan baru-baru ini menunjukkan bahawa jurang prestasi antara LLM semakin rapat. Trend ini jelas dalam tugasan tertentu seperti soalan aneka pilihan, penaakulan dan soalan matematik
- AI 1095 2024-06-01 22:35:35
-
- Adakah lebih baik untuk mempunyai lebih banyak data atau kualiti yang lebih tinggi? Penyelidikan ini boleh membantu anda membuat pilihan anda
- Penskalaan model asas merujuk kepada menggunakan lebih banyak data, pengiraan dan parameter untuk pra-latihan, iaitu "pengembangan skala". Walaupun secara langsung meningkatkan model kelihatan mudah dan kasar, ia sememangnya telah membawa banyak model yang cemerlang kepada komuniti pembelajaran mesin. Banyak kajian terdahulu telah mengiktiraf amalan memperluaskan skala model neuroekonomi Apa yang dipanggil perubahan kuantitatif membawa kepada perubahan kualitatif ini juga dikenali sebagai undang-undang penskalaan saraf. Walau bagaimanapun, apabila saiz model meningkat, ia menghasilkan penggunaan sumber pengkomputeran yang intensif. Ini bermakna model yang lebih besar memerlukan lebih banyak sumber pengkomputeran, termasuk pemproses dan memori. Ini tidak boleh dilaksanakan untuk banyak aplikasi praktikal, terutamanya pada peranti yang dikekang sumber. Oleh itu, penyelidik bermula
- AI 1099 2024-06-01 22:09:19
-
- KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka
- Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah
- AI 890 2024-06-01 22:03:37
-
- Anotasi kotak sempadan berlebihan berbilang grid untuk pengesanan objek yang tepat
- 1. Pengenalan Pada masa ini, pengesan objek utama ialah rangkaian dua peringkat atau satu peringkat berdasarkan rangkaian pengelas tulang belakang yang digunakan semula CNN dalam. YOLOv3 ialah salah satu pengesan satu peringkat tercanggih yang menerima imej input dan membahagikannya kepada matriks grid bersaiz sama. Sel grid dengan pusat sasaran bertanggungjawab untuk mengesan sasaran tertentu. Apa yang saya kongsikan hari ini ialah kaedah matematik baharu yang memperuntukkan berbilang grid kepada setiap sasaran untuk mencapai ramalan kotak sempadan ketat muat yang tepat. Para penyelidik juga mencadangkan peningkatan data salin-tampal luar talian yang berkesan untuk pengesanan sasaran. Kaedah yang baru dicadangkan dengan ketara mengatasi beberapa pengesan objek terkini dan menjanjikan prestasi yang lebih baik. 2. Rangkaian pengesanan sasaran latar belakang direka bentuk untuk digunakan
- AI 632 2024-06-01 21:46:08
-
- Kimi + Coze (coze) adalah kombo yang hebat, saya ingin membina GPT-4o
- Hello semua, saya Laodu. Antara model besar domestik, prestasi Kimi sangat baik. Nasib baik, platform coze menyokong model besar Kimi. Button ialah platform untuk membina kecerdasan Ejen Hari ini kita akan cuba menggunakan Butang Kimi+ untuk membuat ejen dengan kesan GPT-4o. Mula-mula, klik "Buat Bot" pada halaman utama butang Bot sebenarnya adalah Ejen. Dalam gambar di sini, model siri moonshot yang dipilih ialah model Kimi yang besar. Sorotan gambar yang tinggal ialah "plug-in". model untuk melengkapkan banyak fungsi kompleks. Untuk memberikan beberapa contoh, sebagai contoh, keupayaan visual. Tambahkan pemalam untuk membolehkan model besar menjana gambar dan paparan
- AI 1090 2024-06-01 20:23:12
-
- Gambaran keseluruhan perancangan laluan: berdasarkan pensampelan, carian dan pengoptimuman, semuanya selesai!
- 1 Gambaran keseluruhan kawalan keputusan dan perancangan gerakan Kaedah kawalan keputusan semasa boleh dibahagikan kepada tiga kategori: perancangan berurutan, perancangan sedar tingkah laku, dan perancangan hujung ke hujung. Perancangan berurutan: Kaedah yang paling tradisional, tiga bahagian persepsi, membuat keputusan dan kawalan adalah agak jelas perancangan sedar tingkah laku: Berbanding dengan kaedah pertama, kemuncaknya ialah pengenalan pemanduan bersama manusia-mesin, kenderaan-jalan; kerjasama dan anggaran risiko kenderaan bagi persekitaran dinamik luaran; Perancangan hujung ke hujung: Teknologi DL dan DRL menggunakan sejumlah besar latihan data untuk mendapatkan maklumat deria seperti imej, sudut stereng, dsb.
- AI 1093 2024-06-01 20:12:48
-
- Adakah AI generatif membawa kepada kebangkitan semula awan peribadi?
- Kompilasi丨Dihasilkan oleh Noah |. 51CTO Technology Stack (WeChat ID: blog51cto) Ketika satu lagi pusingan revolusi teknologi menghampiri, banyak syarikat menghadapi pilihan strategik: sama ada untuk terus bergantung pada kemudahan awan awam, atau kembali ke awan peribadi. pelukan? Dengan perkembangan pesat teknologi AI, keputusan ini menjadi lebih mendesak. Menurut Tinjauan Awan Infrastruktur 2023 Forrester, kira-kira 79% daripada kira-kira 1,300 pembuat keputusan awan perusahaan yang ditinjau berkata organisasi mereka melaksanakan awan peribadi. Di samping itu, IDC meramalkan bahawa perbelanjaan global untuk perkhidmatan awan persendirian khusus, termasuk awan persendirian terurus, akan mencapai $20.4 bilion pada 2024 dan akan berganda sekurang-kurangnya pada 2027. Sebelum 2024, data IDC menunjukkan bahawa
- AI 814 2024-06-01 20:11:36
-
- Li Feifei mentafsir arah keusahawanan 'kecerdasan ruang' untuk membolehkan AI benar-benar memahami dunia
- Video tafsiran TED lengkap tentang "kecerdasan ruang", pilihan Li Feifei untuk memulakan perniagaan, telah dikeluarkan. Beberapa waktu lalu, Reuters secara eksklusif melaporkan bahawa Li Feifei, "ibu baptis AI" yang terkenal, sedang menubuhkan sebuah syarikat permulaan dan menyelesaikan pusingan awal pembiayaan. Semasa memperkenalkan permulaan, seorang pemberi maklumat memetik ucapan yang diberikan oleh Li Feifei di TED di Vancouver, menunjukkan bahawa beliau memperkenalkan konsep kecerdasan spatial dalam ucapan TED ini. Baru hari ini, Li Feifei mengeluarkan video ucapan lengkapnya di TED Vancouver di X. Dia memperkenalkan pada Insight, insight bertukar menjadi pemahaman,
- AI 1084 2024-06-01 19:56:00
-
- Menewaskan GPT-4o dalam beberapa saat, menewaskan Llama 3 70B dalam 22B, Mistral AI membuka model kod pertamanya
- Unicorn AI Perancis MistralAI, yang menyasarkan OpenAI, telah membuat langkah baharu: Codestral, model kod besar pertama, telah dilahirkan. Sebagai model AI generatif terbuka yang direka khusus untuk tugas penjanaan kod, Codestral membantu pembangun menulis dan berinteraksi dengan kod dengan berkongsi arahan dan menyelesaikan titik akhir API. Kecekapan Codestral dalam pengekodan dan bahasa Inggeris membolehkan pembangun perisian mereka bentuk aplikasi AI lanjutan. Saiz parameter Codestral ialah 22B, ia mematuhi Lesen Pengeluaran MistralAINon baharu, dan boleh digunakan untuk tujuan penyelidikan dan ujian, tetapi penggunaan komersial adalah dilarang. Pada masa ini, model ini tersedia untuk dimuat turun di HuggingFace. pautan muat turun
- AI 354 2024-06-01 18:32:04
-
- Menggabungkan ciri kuantum dan 20,000 simulasi dinamik molekul, set data ML kompleks protein-ligan baharu telah diterbitkan dalam sub-jurnal Nature
- Editor |. Dead Leaf Butterfly Model bahasa berskala besar telah meningkatkan keupayaan saintis untuk memahami biologi dan kimia, tetapi kaedah yang boleh dipercayai untuk penemuan dadah berasaskan struktur, kimia kuantum dan biologi struktur kekal sedikit. Set data interaksi biomolekul-ligan yang tepat diperlukan segera untuk model bahasa yang besar. Untuk menyelesaikan masalah ini, penyelidik dari Institut Biologi Pusat Penyelidikan Helmholtz München dan Universiti Teknikal Munich mencadangkan MISATO. Ini ialah set data yang menggabungkan sifat mekanik kuantum (QM) molekul kecil dengan simulasi dinamik molekul (MD) berkaitan kira-kira 20,000 kompleks protein-ligan eksperimen, dan pengesahan meluas data eksperimen. Bermula dari struktur eksperimen sedia ada, para penyelidik menggunakan mekanik kuantum separa empirikal untuk memperbaiki secara sistematik
- AI 366 2024-06-01 18:20:09
-
- Fahami rangka kerja penilaian LLM Arthur Bench dalam satu artikel
- Hellofolks, Saya Luga Hari ini kita akan bercakap tentang teknologi yang berkaitan dengan bidang ekologi kecerdasan buatan (AI) - penilaian LLM. Seperti yang kita sedia maklum, penilaian LLM merupakan topik penting dalam bidang kecerdasan buatan. Memandangkan LLM semakin digunakan secara meluas dalam pelbagai senario, menjadi semakin penting untuk menilai keupayaan dan batasannya. Sebagai alat penilaian LLM yang baru muncul, ArthurBench menyasarkan untuk menyediakan platform penilaian yang komprehensif, adil dan boleh berulang untuk penyelidik dan pembangun AI. 1. Cabaran yang dihadapi oleh penilaian teks tradisional Dalam beberapa tahun kebelakangan ini, dengan perkembangan pesat dan peningkatan model bahasa besar (LLM), kaedah penilaian teks tradisional mungkin tidak lagi digunakan dalam beberapa aspek. Dalam bidang penilaian teks, kita mungkin pernah mendengar tentang a
- AI 348 2024-06-01 17:57:01
-
- iFlytek bergabung tenaga dengan Alipay untuk membina ekosistem perkhidmatan kokpit pintar
- 30 hari kemudian, iFlytek dan Alipay mengumumkan kontrak kedua-dua pihak akan bekerjasama dalam bidang model besar, pembayaran kereta dan mesin, dan perkhidmatan program mini untuk bersama-sama membina ekosistem perkhidmatan kokpit yang lebih pintar. Pada masa hadapan, lebih banyak perkhidmatan program mini Alipay akan dapat menyediakan pemilik kereta pengalaman kereta pintar dan mudah berbilang senario sebelum, semasa dan selepas perjalanan melalui mesin menaiki kereta iFlytek. Memandangkan trafik Internet menembusi ke dalam proses panoramik, program mini telah menjadi kedudukan penting bagi jenama untuk beroperasi. Kami berharap dapat menyediakan pemilik kereta dengan perkhidmatan yang lebih kaya melalui ekosistem program mini Alipay. He Weimin, timbalan pengurus besar Bahagian Automotif iFlytek, berkata iFlytek akan memanfaatkan kelebihan teknologi sistemnya seperti teknologi sambungan berbilang terminal dan keselamatan program mini untuk menyampaikan ekologi perkhidmatan rangkaian kereta pintar platform Alipay ke terminal kereta jenama itu. Mengikut kajian yang berwibawa
- AI 270 2024-06-01 17:55:26
-
- Llama3 yang mengoyak tangan lapisan 1: Melaksanakan llama3 dari awal
- 1. Seni Bina Llama3 Dalam siri artikel ini, kami melaksanakan llama3 dari awal. Keseluruhan seni bina Llama3: Gambarkan parameter model Llama3: Mari kita lihat nilai sebenar parameter ini dalam model Llama3. Gambar [1] Tetingkap konteks (tetingkap konteks) Apabila membuat instantiated kelas LlaMa, pembolehubah max_seq_len mentakrifkan tetingkap konteks. Terdapat parameter lain dalam kelas, tetapi parameter ini paling berkaitan secara langsung dengan model pengubah. Maks_seq_len di sini ialah 8K. Gambar [2] Saiz perbendaharaan kata dan PerhatianL
- AI 900 2024-06-01 17:45:42
-
- Mudah dan universal: rangkaian asas visual mempercepatkan latihan tanpa kehilangan sehingga 3 kali, Tsinghua EfficientTrain++ dipilih untuk TPAMI 2024
- Pautan kertas: https://arxiv.org/pdf/2405.08768 Kod dan model pra-latihan telah menjadi sumber terbuka: https://github.com/LeapLabTHU/Kertas versi persidangan EfficientTrain (ICCV2023): https://arxiv. org/pdf/ 2211.09703 Lajur Institut Visi Komputer Lajur Institut Visi Komputer Artikel ini terutamanya memperkenalkan Analisis Corak Transaksi IEEE dan Kepintaran Mesin (TP
- AI 307 2024-06-01 17:41:29