lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Adakah set data yang berbeza mempunyai undang-undang penskalaan yang berbeza? Dan anda boleh meramalkannya dengan algoritma pemampatan
- Secara umumnya, lebih banyak pengiraan yang diperlukan untuk melatih rangkaian saraf, lebih baik prestasinya. Apabila menskalakan pengiraan, keputusan mesti dibuat: meningkatkan bilangan parameter model atau meningkatkan saiz set data—dua faktor yang mesti ditimbang dalam belanjawan pengiraan tetap. Kelebihan menambah bilangan parameter model ialah ia boleh meningkatkan kerumitan dan keupayaan ekspresi model, dengan itu lebih sesuai dengan data latihan. Walau bagaimanapun, terlalu banyak parameter boleh menyebabkan pemasangan berlebihan, menjadikan model berprestasi buruk pada data yang tidak kelihatan. Sebaliknya, mengembangkan saiz set data boleh meningkatkan keupayaan generalisasi model dan mengurangkan masalah overfitting. Biar kami memberitahu anda: Selagi anda memperuntukkan parameter dan data dengan sewajarnya, anda boleh memaksimumkan prestasi dalam belanjawan pengkomputeran tetap. Banyak kajian terdahulu telah meneroka Scalingl model bahasa saraf.
- AI 614 2024-06-07 17:51:01
-
- Warga Wuhan memuji pemanduan autonomi, dan Biro Pengangkutan Perbandaran: Bekerjasama dengan syarikat terkemuka untuk mencipta rangka tindakan baharu untuk industri kereta bersambung pintar
- "Wuhan City sangat mementingkan pembangunan industri kenderaan bersambung pintar dan telah berturut-turut membuka lebih 1,000 kilometer jalan terbuka kepada kenderaan bersambung pintar. Ia menggalakkan syarikat kenderaan bersambung pintar terkemuka untuk menetap di Wuhan dan bekerjasama untuk mencipta pelan tindakan baharu untuk pembangunan industri kenderaan bersambung pintar Wuhan Baidu Carrot Sebagai sebuah syarikat terkemuka dalam industri pemanduan autonomi, Kuaipao mementingkan pembangunan industri automobil bersambung pintar Wuhan dan telah terlibat secara mendalam dalam perkhidmatan pemanduan autonomi sejak menetap di Pembangunan Ekonomi Wuhan. Zon pada Ogos 2022. Baidu Luobo Kuaipao akan terus mempromosikan perkhidmatan pengalaman pemanduan autonomi untuk membolehkan lebih ramai rakyat merasai daya tarikan teknologi yang dibawa oleh teknologi pemanduan autonomi "Pada 30 Mei, Biro Pengangkutan Perbandaran Wuhan bertindak balas terhadap permintaan rakyat untuk meningkatkan publisiti positif pemanduan autonomi, yang menarik perhatian meluas. Warganegara yang disebutkan di atas menyatakan dalam perutusannya,
- AI 309 2024-06-07 17:31:02
-
- Hot ChatTTS menembusi siling suara sumber terbuka dan memperoleh 9k bintang dalam masa 3 hari
- Adakah ini rupa masa depan komunikasi antara manusia? Baru-baru ini, projek teks-ke-ucapan yang dipanggil ChatTTS telah menjadi popular dan menarik perhatian ramai. Dalam masa tiga hari sahaja, ia telah memperoleh 9.2k bintang di GitHub. Alamat projek: https://github.com/2noise/ChatTTS/tree/main Penulis sendiri juga berkata pada x bahawa ChatTTS telah menembusi siling sumber terbuka. Walau bagaimanapun, yang kini menjadi sumber terbuka hanyalah model asas, yang belum diselia dan diperhalusi oleh SFT. Projek ini menukarkan teks kepada pertuturan, dan kesannya adalah seperti berikut: ChatTTS bukan sahaja boleh berbahasa Cina, tetapi juga memegang bahasa Inggeris Ia juga menyokong beberapa kawalan halus, yang membolehkan anda menambah ketawa, pertuturan, dsb.
- AI 543 2024-06-07 17:10:54
-
- Algoritma CVM terobosan menyelesaikan lebih daripada 40 tahun masalah pengiraan! Saintis komputer membelek syiling untuk mengetahui perkataan unik untuk 'Hamlet'
- Mengira kedengaran mudah, tetapi sangat sukar untuk dilaksanakan dalam amalan. Bayangkan anda diangkut ke hutan hujan tropika yang asli untuk menjalankan banci hidupan liar. Setiap kali anda melihat haiwan, ambil gambar. Kamera digital hanya merekodkan jumlah bilangan haiwan yang dijejaki, tetapi anda berminat dengan bilangan haiwan unik, tetapi tiada statistik. Jadi apakah cara terbaik untuk mengakses populasi haiwan yang unik ini? Pada ketika ini, anda mesti berkata, mula mengira sekarang dan akhirnya bandingkan setiap spesies baharu daripada foto ke senarai. Walau bagaimanapun, kaedah pengiraan biasa ini kadangkala tidak sesuai untuk jumlah maklumat sehingga berbilion-bilion penyertaan. Para saintis komputer dari Institut Statistik India, UNL, dan Universiti Nasional Singapura telah mencadangkan algoritma baharu - CVM. Ia boleh menganggarkan pengiraan item yang berbeza dalam senarai panjang.
- AI 920 2024-06-07 15:44:57
-
- Baidu mengesyorkan amalan permulaan dingin sumber
- 1. Konsep Permulaan Dingin Kandungan dan Cabaran Syor Suapan Baidu ialah platform pengesyoran aliran maklumat yang komprehensif dengan ratusan juta pengguna bulanan. Platform ini merangkumi pelbagai jenis kandungan seperti grafik, video, kemas kini, program mini, Soal Jawab, dsb. Ia bukan sahaja menyediakan pengesyoran klik dan klik yang serupa dengan lajur tunggal atau berganda, tetapi juga termasuk pelbagai borang pengesyoran seperti rendaman video. Pada masa yang sama, sistem pengesyoran ialah sistem berbilang pemegang kepentingan yang bukan sahaja merangkumi pengalaman pengguna sisi C. Pengeluar kandungan memainkan peranan penting dalam sistem pengesyoran Baidu Feed mempunyai sejumlah besar pengamal aktif, menghasilkan sejumlah besar kandungan setiap hari. Intipati sistem pengesyoran platform kandungan adalah untuk mencapai situasi menang-menang untuk semua pihak Bagi pihak pengguna: platform perlu terus mengesyorkan kandungan berkualiti tinggi, segar dan pelbagai kepada pengguna, menarik lebih ramai pengguna dan menyumbang lebih banyak masa. ; untuk pihak penulis
- AI 577 2024-06-07 15:08:43
-
- Ekstrak berjuta-juta ciri daripada Claude 3 dan fahami 'pemikiran' model besar secara terperinci untuk kali pertama
- Anthropic baru sahaja mengumumkan bahawa ia telah mencapai kemajuan yang ketara dalam memahami cara kerja dalaman model kecerdasan buatan. Anthropic telah mengenal pasti cara untuk mewakili berjuta-juta konsep fungsi eigen dalam ClaudeSonnet. Ini ialah pemahaman terperinci pertama tentang model bahasa skala besar gred pengeluaran moden. Kebolehtafsiran ini akan membantu kami meningkatkan keselamatan model kecerdasan buatan, yang merupakan peristiwa penting. Kertas penyelidikan: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html Pada masa ini, kami biasanya menganggap model kecerdasan buatan sebagai kotak hitam: jika sesuatu masuk, respons akan keluar, tetapi tidak jelas mengapa.
- AI 616 2024-06-07 13:37:45
-
- Penyelidik menggunakan pembelajaran mesin untuk mengoptimumkan eksperimen laser berkuasa tinggi
- Laser berintensiti tinggi dan ulangan tinggi boleh mengeluarkan pancaran cahaya yang kuat berkali-kali sesaat berturut-turut. Loji tenaga gabungan komersial dan sumber sinaran berasaskan bahan api termaju bergantung pada laser tersebut. Walau bagaimanapun, masa tindak balas manusia tidak mencukupi untuk menguruskan sistem kebakaran pantas sedemikian, menjadikan aplikasi mencabar. Untuk menangani cabaran ini, saintis sedang mencari cara yang berbeza untuk memanfaatkan kuasa automasi dan kecerdasan buatan, yang membolehkan pemantauan masa nyata bagi operasi berintensiti tinggi. Satu pasukan penyelidik dari Lawrence Livermore National Laboratory (LLNL), Fraunhofer Institute for Laser Technology (ILT) dan Aurora Infrastructure (ELIERIC) di AS sedang menjalankan eksperimen di Republik Czech menggunakan pembelajaran mesin (ML) Optimizing laser berkuasa tinggi. Matlamat mereka adalah untuk meningkatkan kecekapan laser supaya mereka dapat mengatasinya dengan lebih baik
- AI 656 2024-06-07 13:03:20
-
- Melangkaui Devin, Yao Ban mengetuai OpenCSG untuk mencipta rekod dunia baharu untuk pengaturcaraan model besar
- StarShipCodeGenAgent, yang dilancarkan oleh OpenCSG, syarikat permulaan model berskala besar di China, telah mencapai tempat kedua di dunia dalam kedudukan WEBench (Real Independent Programming Evaluation of Large Models) melalui inovasi. Pada masa yang sama, ia mencipta rekod tertinggi (SOTA) berdasarkan model GPT-4o. (Kiraan perkataan: 37) Penilaian SWEBench sangat hampir dengan senario pengaturcaraan sebenar dan amat sukar ia bukan sahaja memerlukan model untuk memahami keperluan dan menyelaraskan perubahan antara pelbagai fungsi/kelas, tetapi juga memerlukan model untuk berinteraksi dengan persekitaran pelaksanaan. mengendalikan konteks ultra-panjang, dan melaksanakan program jauh kompleks penaakulan logik untuk tugas penjanaan kod ultra-tradisional. Dalam ujian sebenar yang sukar ini, GPT4 dan Devin yang paling maju dalam industri juga
- AI 619 2024-06-07 12:36:29
-
- Yolov10: Penjelasan terperinci, penggunaan dan aplikasi semuanya di satu tempat!
- 1. Pengenalan Sejak beberapa tahun kebelakangan ini, YOLO telah menjadi paradigma dominan dalam bidang pengesanan objek masa nyata kerana keseimbangannya yang berkesan antara kos pengiraan dan prestasi pengesanan. Penyelidik telah meneroka reka bentuk seni bina YOLO, matlamat pengoptimuman, strategi pengembangan data, dsb., dan telah mencapai kemajuan yang ketara. Pada masa yang sama, bergantung pada penindasan bukan maksimum (NMS) untuk pemprosesan pasca menghalang penggunaan YOLO dari hujung ke hujung dan memberi kesan buruk kepada kependaman inferens. Dalam YOLO, reka bentuk pelbagai komponen tidak mempunyai pemeriksaan yang komprehensif dan teliti, mengakibatkan lebihan pengiraan yang ketara dan mengehadkan keupayaan model. Ia menawarkan kecekapan suboptimum, dan potensi yang agak besar untuk peningkatan prestasi. Dalam kerja ini, matlamatnya adalah untuk meningkatkan lagi sempadan kecekapan prestasi YOLO daripada kedua-dua pasca pemprosesan dan seni bina model. sampai habis
- AI 898 2024-06-07 12:05:27
-
- Bahasa peringkat tinggi GPU pertama, paralelisme besar-besaran seperti menulis Python, telah menerima 8500 bintang
- Selepas hampir 10 tahun usaha tanpa henti dan penyelidikan mendalam mengenai teras sains komputer, orang ramai akhirnya merealisasikan impian: menjalankan bahasa peringkat tinggi pada GPU. Hujung minggu lalu, bahasa pengaturcaraan yang dipanggil Bend mencetuskan perbincangan hangat dalam komuniti sumber terbuka, dan bilangan bintang di GitHub telah melebihi 8,500. GitHub: https://github.com/HigherOrderCO/Bend Sebagai bahasa pengaturcaraan peringkat tinggi yang selari secara besar-besaran, ia masih dalam peringkat penyelidikan, tetapi idea yang dicadangkan telah mengejutkan orang ramai. Dengan Bend anda boleh menulis kod selari untuk CPU/GPU berbilang teras tanpa perlu menjadi pakar C/CUDA dengan pengalaman 10 tahun, rasanya seperti Python
- AI 1113 2024-06-07 12:03:58
-
- Gunakan Elasticsearch berdasarkan storan memori - 100 juta+ keping data, carian teks penuh 100ms respons
- 1. Pasang direktori storan memori pada hos Buat direktori untuk memasang mkdir/mnt/memory_storage , apabila menggunakan storan 100G Ia akan menduduki 100G memori. Terdapat memori 2T pada nod hos, dan memori 800G diperuntukkan di sini untuk menyimpan data Elasticsearch. Buat direktori mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul terlebih dahulu
- AI 511 2024-06-07 11:11:48
-
- Tutorial baharu Karpathy menjadi viral, dan netizen bergegas memberikannya H100: Buat semula latihan GPT-2 dari awal
- Master Karpathy tidak lagi berpuas hati dengan menggunakan bahasa C untuk mencipta Llama! Cabaran terbaru yang dia berikan sendiri: untuk menghasilkan semula hasil klasik OpenAI, bermula dengan versi asas GPT-2. Kejayaan cabaran itu sendiri bukan di luar jangkaan, tetapi ia hanya menelan belanja 20 dolar AS dan 90 minit untuk menyelesaikan latihan, dan kerugian serta penilaian melebihi versi asal, cuma! mempunyai! titik! Lulus! titik! faham! . Bukan itu sahaja, dia menulis tutorial lengkap mengenai proses pembiakan, dan pastinya, ia menjadi popular semula. Memandangkan Karpathy menyewa sendiri perkhidmatan awan A100, latihan versi 124M berharga AS$20. Walau bagaimanapun, seseorang mengikuti tutorial dan berlari dengan H100 Bukan sahaja masa latihan menjadi lebih singkat, tetapi ia juga menjimatkan wang: ia telah siap dalam 43 minit dan hanya berharga 14 dolar AS. Selain itu, Karpathy juga membayar 2 daripada poketnya sendiri
- AI 479 2024-06-07 10:29:25
-
- Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool
- Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks
- AI 548 2024-06-07 10:06:29
-
- Sebarkan model bahasa besar secara setempat dalam OpenHarmony
- Artikel ini akan membuka sumber hasil "Pengedaran Tempatan Model Bahasa Besar dalam OpenHarmony" yang ditunjukkan pada Persidangan Teknologi OpenHarmony ke-2 alamat sumber terbuka: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/ hap_integrate.md. Idea dan langkah pelaksanaan adalah untuk memindahkan rangka kerja inferens model LLM ringan InferLLM kepada sistem standard OpenHarmony dan menyusun produk binari yang boleh dijalankan pada OpenHarmony. InferLLM ialah L yang mudah dan cekap
- AI 910 2024-06-07 10:02:23
-
- Memfokuskan pada inovasi, Intel melancarkan strategi jenama Xeon® baharu
- Jenama adalah simbol misi dan pembangunan korporat, dan juga membawa ciri-ciri produk dan pengiktirafan pasaran. Hari ini, semasa pelancaran pemproses teras cekap tenaga Intel® Xeon® 6 di Pusat Pengalaman Teknologi Intel GTC, Brett Hannath, naib presiden global dan ketua pegawai pemasaran Intel Corporation, mengumumkan pelancaran jenama Intel® Xeon® baharu . Brett Hannath berkata bahawa strategi jenama Intel® Xeon® baharu akan menumpukan pada inovasi, memberikan atribut jenama produk dengan penamaan yang lebih ringkas dan makna yang lebih mendalam, dan meningkatkan pengiktirafan jenama Xeon di pasaran. Melalui penyepaduan teknologi inovatif, prestasi tinggi, kecekapan tinggi, kualiti tinggi dan ciri keselamatan tinggi, kami mencipta pengalaman baharu untuk rakan kongsi industri dan pengguna. Sejak diperkenalkan pada tahun 1998, jenama Intel® Xeon®
- AI 915 2024-06-07 09:29:48