lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Cara baharu untuk bermain sumber ramai! Ujian penanda aras telah dilahirkan di Arena LLM untuk memisahkan pelajar jahat dan pelajar terbaik dengan tegas.
- Syarikat manakah yang lebih kukuh dalam kedudukan model besar? Tonton juga LLM Arena ~ Sehingga kini, sejumlah 90 LLM telah menyertai pertempuran, dan jumlah undian pengguna telah melebihi 770,000. Gambar Walau bagaimanapun, sementara netizen mempersendakan model baharu yang tergesa-gesa masuk ke dalam ranking dan model lama kehilangan maruah mereka, LMSYS, organisasi di belakang Renjia Arena, secara senyap-senyap telah menyelesaikan transformasi keputusan: ujian penanda aras paling meyakinkan yang lahir daripada pertempuran sebenar—— Arena -Keras. Gambar Empat kelebihan yang ditunjukkan oleh Arena-Hard adalah yang paling diperlukan oleh penanda aras LLM semasa: - Kebolehpisahan (87.4%) adalah lebih baik daripada MT-bench (22.6%) - Kedudukan terbaik dengan ChatbotArena Similar, mencapai 89.1%; kelajuan berjalan, harga rendah
- AI 371 2024-06-02 13:21:08
-
- 2,500 muka surat dokumen algoritma bocor! Kotak hitam paling berkuasa dalam sejarah carian terdedah, adakah Google akan membatalkan dan menaik taraf semula?
- Ditulis oleh Noah |. 51CTO Technology Stack (WeChat ID: blog51cto) Google mengalami tahun yang agak teruk. Sepanjang dua hari yang lalu, enjin carian telah memberikan maklumat tentang ciri "Ikhtisar AI" yang sering memberikan hasil carian yang sangat tidak tepat, contohnya, secara tidak masuk akal mencadangkan pengguna menggunakan gam untuk menghalang keju daripada tergelincir dari piza. Dalam hal ini, Ketua Pegawai Eksekutif Pichai juga terpaksa mengakui bahawa ini disebabkan oleh ilusi model bahasa yang besar, dan pada masa ini tiada penyelesaian. Dokumen dalaman daripada enjin carian Google telah bocor baru-baru ini, mungkin menunjukkan kepada orang ramai cara ia berfungsi buat kali pertama. Artikel ini pertama kali diterbitkan di sini Google masih belum mengeluarkan respons rasmi terhadap kebocoran itu dan tidak mempertikaikan kesahihan dokumen tersebut. Untuk masa yang lama, Google telah menjadi
- AI 785 2024-06-02 12:21:35
-
- Goose Factory telah membina sebuah syarikat terjemahan AI: pakar dalam novel dalam talian, menyesuaikan gaya bahasa secara automatik, dan kedua-dua orang sebenar dan GPT-4 boleh membacanya dengan baik.
- Kilang Angsa telah menubuhkan "syarikat terjemahan" dengan lebih daripada 150 orang daripada bos kepada pekerja, mereka semua adalah ejen AI! Perniagaan utama adalah terjemahan novel dalam talian Kualitinya sangat tinggi. Pembaca yang mengambil bahagian dalam penilaian berpendapat bahawa terjemahan itu lebih baik daripada orang sebenar. Dan berbanding dengan mengupah orang sebenar, menggunakannya untuk menterjemah karya sastera mengurangkan kos hampir 80 kali ganda. ATransAgents, dengan 30 pekerja berbeza dalam setiap jawatan, boleh menyesuaikan gaya terjemahan yang berbeza mengikut bahasa, genre dan khalayak sasaran. Berbanding dengan terjemahan tradisional, terjemahan yang terhasil adalah lebih fleksibel dan pelbagai, lebih sesuai dengan tabiat ungkapan bahasa sasaran, dan lebih sastera. Oleh itu, walaupun TransAgents "gagal" dalam penilaian automatik berdasarkan persamaan, ia telah mendapat pengiktirafan kuat daripada pembaca dan profesional. jadi
- AI 403 2024-06-02 12:09:21
-
- Pengekodan AI, adakah ia keperluan sebenar atau gimik?
- Temu bual Tetamu |. oleh Xu Xiaoqiang |. Ditulis oleh Zhang Xiaonan |. Dihasilkan oleh Li Meihan |. Hampir sekali-sekala, topik sama ada alat pengaturcaraan AI boleh menggantikan pengaturcara akan dibincangkan semula. Perbincangan hangat yang dibangkitkan oleh pengaturcaraan AI membuat orang keliru: Adakah ini akan mencetuskan revolusi produktiviti dalam bidang pengaturcaraan? Atau adakah ini satu lagi aksi yang terlalu digembar-gemburkan? Terima kasih kepada pengaturcaraan AI, Baidu telah mencapai peningkatan 10% dalam kecekapan manusia, dan 27% daripada kod baharu yang dikemukakan oleh jurutera hari ini dihasilkan oleh AI. Perintis jawapan ini ialah pengeluar utama yang meneroka jawapan ini. Namun, sebagai arkitek Baidu Comate, saya juga merupakan pengasas produk ini.
- AI 1082 2024-06-02 10:15:47
-
- Menyesuaikan diri dengan pelbagai bentuk dan tugas, sistem pembelajaran robot sumber terbuka yang paling berkuasa 'Octopus' telah dilahirkan
- Apabila ia berkaitan dengan pembelajaran robot, pendekatan biasa ialah mengumpul set data khusus untuk robot dan tugas tertentu, dan kemudian menggunakannya untuk melatih dasar. Walau bagaimanapun, jika kaedah ini digunakan untuk belajar dari awal, data yang mencukupi perlu dikumpul untuk setiap tugas, dan keupayaan generalisasi dasar yang dihasilkan biasanya lemah. “Secara prinsipnya, pengalaman yang dikumpul daripada robot dan tugasan lain boleh memberikan penyelesaian yang mungkin, membolehkan model melihat pelbagai masalah kawalan robot, dan masalah ini boleh meningkatkan keupayaan dan prestasi generalisasi robot pada tugasan hiliran yang boleh mengendalikan pelbagai bahasa semula jadi dan tugas penglihatan komputer telah muncul, membina "model robot universal" masih sukar "Sangat sukar untuk melatih strategi kawalan bersatu untuk robot, termasuk
- AI 668 2024-06-02 10:04:53
-
- Mengapakah model bahasa kecil merupakan perkara besar seterusnya dalam dunia AI?
- Penterjemah |. Tinjauan Bugatti |. Chonglou Dalam bidang AI, gergasi teknologi telah bersaing untuk membina model bahasa yang semakin besar, dan kini trend baharu yang mengejutkan telah muncul: kecil itu besar. Memandangkan kemajuan pada model bahasa besar (LLM) menunjukkan tanda-tanda terhenti, penyelidik dan pembangun semakin menumpukan perhatian mereka kepada model bahasa kecil (SLM). Model AI yang padat, cekap dan boleh disesuaikan ini mencabar tanggapan bahawa "lebih besar adalah lebih baik" dan berjanji untuk mengubah cara kami mendekati pembangunan AI. Adakah LLM mula bertakung? Keputusan perbandingan prestasi Vellum dan HuggingFace yang dikeluarkan baru-baru ini menunjukkan bahawa jurang prestasi antara LLM semakin rapat. Trend ini jelas dalam tugasan tertentu seperti soalan aneka pilihan, penaakulan dan soalan matematik
- AI 1143 2024-06-01 22:35:35
-
- Adakah lebih baik untuk mempunyai lebih banyak data atau kualiti yang lebih tinggi? Penyelidikan ini boleh membantu anda membuat pilihan anda
- Penskalaan model asas merujuk kepada menggunakan lebih banyak data, pengiraan dan parameter untuk pra-latihan, iaitu "pengembangan skala". Walaupun secara langsung meningkatkan model kelihatan mudah dan kasar, ia sememangnya telah membawa banyak model yang cemerlang kepada komuniti pembelajaran mesin. Banyak kajian terdahulu telah mengiktiraf amalan memperluaskan skala model neuroekonomi Apa yang dipanggil perubahan kuantitatif membawa kepada perubahan kualitatif ini juga dikenali sebagai undang-undang penskalaan saraf. Walau bagaimanapun, apabila saiz model meningkat, ia menghasilkan penggunaan sumber pengkomputeran yang intensif. Ini bermakna model yang lebih besar memerlukan lebih banyak sumber pengkomputeran, termasuk pemproses dan memori. Ini tidak boleh dilaksanakan untuk banyak aplikasi praktikal, terutamanya pada peranti yang dikekang sumber. Oleh itu, penyelidik bermula
- AI 1147 2024-06-01 22:09:19
-
- KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka
- Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah
- AI 960 2024-06-01 22:03:37
-
- Anotasi kotak sempadan berlebihan berbilang grid untuk pengesanan objek yang tepat
- 1. Pengenalan Pada masa ini, pengesan objek utama ialah rangkaian dua peringkat atau satu peringkat berdasarkan rangkaian pengelas tulang belakang yang digunakan semula CNN dalam. YOLOv3 ialah salah satu pengesan satu peringkat tercanggih yang menerima imej input dan membahagikannya kepada matriks grid bersaiz sama. Sel grid dengan pusat sasaran bertanggungjawab untuk mengesan sasaran tertentu. Apa yang saya kongsikan hari ini ialah kaedah matematik baharu yang memperuntukkan berbilang grid kepada setiap sasaran untuk mencapai ramalan kotak sempadan ketat muat yang tepat. Para penyelidik juga mencadangkan peningkatan data salin-tampal luar talian yang berkesan untuk pengesanan sasaran. Kaedah yang baru dicadangkan dengan ketara mengatasi beberapa pengesan objek terkini dan menjanjikan prestasi yang lebih baik. 2. Rangkaian pengesanan sasaran latar belakang direka bentuk untuk digunakan
- AI 685 2024-06-01 21:46:08
-
- Kimi + Coze (coze) adalah kombo yang hebat, saya ingin membina GPT-4o
- Hello semua, saya Laodu. Antara model besar domestik, prestasi Kimi sangat baik. Nasib baik, platform coze menyokong model besar Kimi. Button ialah platform untuk membina kecerdasan Ejen Hari ini kita akan cuba menggunakan Butang Kimi+ untuk membuat ejen dengan kesan GPT-4o. Mula-mula, klik "Buat Bot" pada halaman utama butang Bot sebenarnya adalah Ejen. Dalam gambar di sini, model siri moonshot yang dipilih ialah model Kimi yang besar. Sorotan gambar yang tinggal ialah "plug-in". model untuk melengkapkan banyak fungsi kompleks. Untuk memberikan beberapa contoh, sebagai contoh, keupayaan visual. Tambahkan pemalam untuk membolehkan model besar menjana gambar dan paparan
- AI 1141 2024-06-01 20:23:12
-
- Gambaran keseluruhan perancangan laluan: berdasarkan pensampelan, carian dan pengoptimuman, semuanya selesai!
- 1 Gambaran keseluruhan kawalan keputusan dan perancangan gerakan Kaedah kawalan keputusan semasa boleh dibahagikan kepada tiga kategori: perancangan berurutan, perancangan sedar tingkah laku, dan perancangan hujung ke hujung. Perancangan berurutan: Kaedah yang paling tradisional, tiga bahagian persepsi, membuat keputusan dan kawalan adalah agak jelas perancangan sedar tingkah laku: Berbanding dengan kaedah pertama, kemuncaknya ialah pengenalan pemanduan bersama manusia-mesin, kenderaan-jalan; kerjasama dan anggaran risiko kenderaan bagi persekitaran dinamik luaran; Perancangan hujung ke hujung: Teknologi DL dan DRL menggunakan sejumlah besar latihan data untuk mendapatkan maklumat deria seperti imej, sudut stereng, dsb.
- AI 1147 2024-06-01 20:12:48
-
- Adakah AI generatif membawa kepada kebangkitan semula awan peribadi?
- Kompilasi丨Dihasilkan oleh Noah |. 51CTO Technology Stack (WeChat ID: blog51cto) Ketika satu lagi pusingan revolusi teknologi menghampiri, banyak syarikat menghadapi pilihan strategik: sama ada untuk terus bergantung pada kemudahan awan awam, atau kembali ke awan peribadi. pelukan? Dengan perkembangan pesat teknologi AI, keputusan ini menjadi lebih mendesak. Menurut Tinjauan Awan Infrastruktur 2023 Forrester, kira-kira 79% daripada kira-kira 1,300 pembuat keputusan awan perusahaan yang ditinjau berkata organisasi mereka melaksanakan awan peribadi. Di samping itu, IDC meramalkan bahawa perbelanjaan global untuk perkhidmatan awan persendirian khusus, termasuk awan persendirian terurus, akan mencapai $20.4 bilion pada 2024 dan akan berganda sekurang-kurangnya pada 2027. Sebelum 2024, data IDC menunjukkan bahawa
- AI 864 2024-06-01 20:11:36
-
- Li Feifei mentafsir arah keusahawanan 'kecerdasan ruang' untuk membolehkan AI benar-benar memahami dunia
- Video tafsiran TED lengkap tentang "kecerdasan ruang", pilihan Li Feifei untuk memulakan perniagaan, telah dikeluarkan. Beberapa waktu lalu, Reuters secara eksklusif melaporkan bahawa Li Feifei, "ibu baptis AI" yang terkenal, sedang menubuhkan sebuah syarikat permulaan dan menyelesaikan pusingan awal pembiayaan. Semasa memperkenalkan permulaan, seorang pemberi maklumat memetik ucapan yang diberikan oleh Li Feifei di TED di Vancouver, menunjukkan bahawa beliau memperkenalkan konsep kecerdasan spatial dalam ucapan TED ini. Baru hari ini, Li Feifei mengeluarkan video ucapan lengkapnya di TED Vancouver di X. Dia memperkenalkan pada Insight, insight bertukar menjadi pemahaman,
- AI 1147 2024-06-01 19:56:00
-
- Menewaskan GPT-4o dalam beberapa saat, menewaskan Llama 3 70B dalam 22B, Mistral AI membuka model kod pertamanya
- Unicorn AI Perancis MistralAI, yang menyasarkan OpenAI, telah membuat langkah baharu: Codestral, model kod besar pertama, telah dilahirkan. Sebagai model AI generatif terbuka yang direka khusus untuk tugas penjanaan kod, Codestral membantu pembangun menulis dan berinteraksi dengan kod dengan berkongsi arahan dan menyelesaikan titik akhir API. Kecekapan Codestral dalam pengekodan dan bahasa Inggeris membolehkan pembangun perisian mereka bentuk aplikasi AI lanjutan. Saiz parameter Codestral ialah 22B, ia mematuhi Lesen Pengeluaran MistralAINon baharu, dan boleh digunakan untuk tujuan penyelidikan dan ujian, tetapi penggunaan komersial adalah dilarang. Pada masa ini, model ini tersedia untuk dimuat turun di HuggingFace. pautan muat turun
- AI 418 2024-06-01 18:32:04
-
- Menggabungkan ciri kuantum dan 20,000 simulasi dinamik molekul, set data ML kompleks protein-ligan baharu telah diterbitkan dalam sub-jurnal Nature
- Editor |. Dead Leaf Butterfly Model bahasa berskala besar telah meningkatkan keupayaan saintis untuk memahami biologi dan kimia, tetapi kaedah yang boleh dipercayai untuk penemuan dadah berasaskan struktur, kimia kuantum dan biologi struktur kekal sedikit. Set data interaksi biomolekul-ligan yang tepat diperlukan segera untuk model bahasa yang besar. Untuk menyelesaikan masalah ini, penyelidik dari Institut Biologi Pusat Penyelidikan Helmholtz München dan Universiti Teknikal Munich mencadangkan MISATO. Ini ialah set data yang menggabungkan sifat mekanik kuantum (QM) molekul kecil dengan simulasi dinamik molekul (MD) berkaitan kira-kira 20,000 kompleks protein-ligan eksperimen, dan pengesahan meluas data eksperimen. Bermula dari struktur eksperimen sedia ada, para penyelidik menggunakan mekanik kuantum separa empirikal untuk memperbaiki secara sistematik
- AI 412 2024-06-01 18:20:09