lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Pendaftaran untuk Persidangan Zhiyuan Beijing 2024 dibuka!
- Persidangan Zhiyuan Beijing ialah acara pakar yang komprehensif dalam bidang kecerdasan buatan Sejak kemunculannya pada Oktober 2019, ia telah berjaya diadakan selama lima kali. Dengan ciri-ciri tersendiri, persidangan itu menjemput penyelidik dari dalam dan luar negara untuk memberikan ucapan yang indah dan dialog yang mendalam Seramai 11 pemenang Anugerah Turing telah mengambil bahagian dalam persidangan itu Setiap tahun, kira-kira 200 pakar terkemuka hadir, dan 500,000 penonton daripada lebih daripada 30 negara dan wilayah berkumpul bersama , berkongsi hasil penyelidikan, meneroka pengetahuan termaju, bertukar pengalaman praktikal dan mewujudkan kerjasama yang erat. Ciri-ciri persidangan: Perspektif global: Komunikasi bersemuka dengan pakar terkemuka dunia, alami pesona teknologi tanpa sempadan: Penyelidik cemerlang tahun ini berkumpul untuk bertukar-tukar idea baharu dan menerokai idea baharu : meneroka isu utama dalam bidang AI, mengeluarkan konsep penting, dan membimbing Hala Tuju Masa Depan Bab yang cerah dalam tempoh lima tahun yang lalu,
- AI 874 2024-06-07 19:36:31
-
- XJTLU dan Universiti Liverpool mencadangkan: semakan komprehensif pertama bagi peningkatan data awan titik
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis pertama kertas kerja ini, Zhu Qinfeng, adalah calon kedoktoran tahun pertama yang dilatih bersama oleh Universiti Xi'an Jiaotong-Liverpool dan Penyelianya Profesor Madya Fan Lei. Arah penyelidikan utama beliau ialah segmentasi semantik, gabungan maklumat pelbagai mod, penglihatan 3D, imej hiperspektral dan peningkatan data. pelajaran
- AI 740 2024-06-07 18:54:46
-
- Model AI Generatif PK besar——GPT-4, Claude 2.1 dan Claude 3.0 Opus
- Untuk mengetahui lebih lanjut tentang AIGC, sila layari: Komuniti 51CTOAI.x https://www.51cto.com/aigc/ Pengenalan Pada masa ini, penilaian baharu sistem RAG (Retrieval Augmentation Generation) nampaknya dikeluarkan setiap hari, kebanyakannya berpusat Semasa fasa mendapatkan semula bingkai yang berkaitan. Walau bagaimanapun, aspek generatif—cara model mensintesis dan menyatakan maklumat yang diperoleh ini—mungkin sama penting dalam amalan. Banyak kes aplikasi praktikal membuktikan bahawa sistem bukan sahaja perlu memulangkan data dari konteks, tetapi juga perlu mengubah maklumat ini menjadi tindak balas yang lebih kompleks. Untuk tujuan ini, kami telah menjalankan beberapa eksperimen dan menguji keupayaan penjanaan tiga model: GPT-4, Claude2.1 dan Claude3Opus.
- AI 1090 2024-06-07 18:32:37
-
- Adakah set data yang berbeza mempunyai undang-undang penskalaan yang berbeza? Dan anda boleh meramalkannya dengan algoritma pemampatan
- Secara umumnya, lebih banyak pengiraan yang diperlukan untuk melatih rangkaian saraf, lebih baik prestasinya. Apabila menskalakan pengiraan, keputusan mesti dibuat: meningkatkan bilangan parameter model atau meningkatkan saiz set data—dua faktor yang mesti ditimbang dalam belanjawan pengiraan tetap. Kelebihan menambah bilangan parameter model ialah ia boleh meningkatkan kerumitan dan keupayaan ekspresi model, dengan itu lebih sesuai dengan data latihan. Walau bagaimanapun, terlalu banyak parameter boleh menyebabkan pemasangan berlebihan, menjadikan model berprestasi buruk pada data yang tidak kelihatan. Sebaliknya, mengembangkan saiz set data boleh meningkatkan keupayaan generalisasi model dan mengurangkan masalah overfitting. Biar kami memberitahu anda: Selagi anda memperuntukkan parameter dan data dengan sewajarnya, anda boleh memaksimumkan prestasi dalam belanjawan pengkomputeran tetap. Banyak kajian terdahulu telah meneroka Scalingl model bahasa saraf.
- AI 632 2024-06-07 17:51:01
-
- Warga Wuhan memuji pemanduan autonomi, dan Biro Pengangkutan Perbandaran: Bekerjasama dengan syarikat terkemuka untuk mencipta rangka tindakan baharu untuk industri kereta bersambung pintar
- "Wuhan City sangat mementingkan pembangunan industri kenderaan bersambung pintar dan telah berturut-turut membuka lebih 1,000 kilometer jalan terbuka kepada kenderaan bersambung pintar. Ia menggalakkan syarikat kenderaan bersambung pintar terkemuka untuk menetap di Wuhan dan bekerjasama untuk mencipta pelan tindakan baharu untuk pembangunan industri kenderaan bersambung pintar Wuhan Baidu Carrot Sebagai sebuah syarikat terkemuka dalam industri pemanduan autonomi, Kuaipao mementingkan pembangunan industri automobil bersambung pintar Wuhan dan telah terlibat secara mendalam dalam perkhidmatan pemanduan autonomi sejak menetap di Pembangunan Ekonomi Wuhan. Zon pada Ogos 2022. Baidu Luobo Kuaipao akan terus mempromosikan perkhidmatan pengalaman pemanduan autonomi untuk membolehkan lebih ramai rakyat merasai daya tarikan teknologi yang dibawa oleh teknologi pemanduan autonomi "Pada 30 Mei, Biro Pengangkutan Perbandaran Wuhan bertindak balas terhadap permintaan rakyat untuk meningkatkan publisiti positif pemanduan autonomi, yang menarik perhatian meluas. Warganegara yang disebutkan di atas menyatakan dalam perutusannya,
- AI 323 2024-06-07 17:31:02
-
- Hot ChatTTS menembusi siling suara sumber terbuka dan memperoleh 9k bintang dalam masa 3 hari
- Adakah ini rupa masa depan komunikasi antara manusia? Baru-baru ini, projek teks-ke-ucapan yang dipanggil ChatTTS telah menjadi popular dan menarik perhatian ramai. Dalam masa tiga hari sahaja, ia telah memperoleh 9.2k bintang di GitHub. Alamat projek: https://github.com/2noise/ChatTTS/tree/main Penulis sendiri juga berkata pada x bahawa ChatTTS telah menembusi siling sumber terbuka. Walau bagaimanapun, yang kini menjadi sumber terbuka hanyalah model asas, yang belum diselia dan diperhalusi oleh SFT. Projek ini menukarkan teks kepada pertuturan, dan kesannya adalah seperti berikut: ChatTTS bukan sahaja boleh berbahasa Cina, tetapi juga memegang bahasa Inggeris Ia juga menyokong beberapa kawalan halus, yang membolehkan anda menambah ketawa, pertuturan, dsb.
- AI 551 2024-06-07 17:10:54
-
- Algoritma CVM terobosan menyelesaikan lebih daripada 40 tahun masalah pengiraan! Saintis komputer membelek syiling untuk mengetahui perkataan unik untuk 'Hamlet'
- Mengira kedengaran mudah, tetapi sangat sukar untuk dilaksanakan dalam amalan. Bayangkan anda diangkut ke hutan hujan tropika yang asli untuk menjalankan banci hidupan liar. Setiap kali anda melihat haiwan, ambil gambar. Kamera digital hanya merekodkan jumlah bilangan haiwan yang dijejaki, tetapi anda berminat dengan bilangan haiwan unik, tetapi tiada statistik. Jadi apakah cara terbaik untuk mengakses populasi haiwan yang unik ini? Pada ketika ini, anda mesti berkata, mula mengira sekarang dan akhirnya bandingkan setiap spesies baharu daripada foto ke senarai. Walau bagaimanapun, kaedah pengiraan biasa ini kadangkala tidak sesuai untuk jumlah maklumat sehingga berbilion-bilion penyertaan. Para saintis komputer dari Institut Statistik India, UNL, dan Universiti Nasional Singapura telah mencadangkan algoritma baharu - CVM. Ia boleh menganggarkan pengiraan item yang berbeza dalam senarai panjang.
- AI 938 2024-06-07 15:44:57
-
- Baidu mengesyorkan amalan permulaan dingin sumber
- 1. Konsep Permulaan Dingin Kandungan dan Cabaran Syor Suapan Baidu ialah platform pengesyoran aliran maklumat yang komprehensif dengan ratusan juta pengguna bulanan. Platform ini merangkumi pelbagai jenis kandungan seperti grafik, video, kemas kini, program mini, Soal Jawab, dsb. Ia bukan sahaja menyediakan pengesyoran klik dan klik yang serupa dengan lajur tunggal atau berganda, tetapi juga termasuk pelbagai borang pengesyoran seperti rendaman video. Pada masa yang sama, sistem pengesyoran ialah sistem berbilang pemegang kepentingan yang bukan sahaja merangkumi pengalaman pengguna sisi C. Pengeluar kandungan memainkan peranan penting dalam sistem pengesyoran Baidu Feed mempunyai sejumlah besar pengamal aktif, menghasilkan sejumlah besar kandungan setiap hari. Intipati sistem pengesyoran platform kandungan adalah untuk mencapai situasi menang-menang untuk semua pihak Bagi pihak pengguna: platform perlu terus mengesyorkan kandungan berkualiti tinggi, segar dan pelbagai kepada pengguna, menarik lebih ramai pengguna dan menyumbang lebih banyak masa. ; untuk pihak penulis
- AI 592 2024-06-07 15:08:43
-
- Ekstrak berjuta-juta ciri daripada Claude 3 dan fahami 'pemikiran' model besar secara terperinci untuk kali pertama
- Anthropic baru sahaja mengumumkan bahawa ia telah mencapai kemajuan yang ketara dalam memahami cara kerja dalaman model kecerdasan buatan. Anthropic telah mengenal pasti cara untuk mewakili berjuta-juta konsep fungsi eigen dalam ClaudeSonnet. Ini ialah pemahaman terperinci pertama tentang model bahasa skala besar gred pengeluaran moden. Kebolehtafsiran ini akan membantu kami meningkatkan keselamatan model kecerdasan buatan, yang merupakan peristiwa penting. Kertas penyelidikan: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html Pada masa ini, kami biasanya menganggap model kecerdasan buatan sebagai kotak hitam: jika sesuatu masuk, respons akan keluar, tetapi tidak jelas mengapa.
- AI 622 2024-06-07 13:37:45
-
- Penyelidik menggunakan pembelajaran mesin untuk mengoptimumkan eksperimen laser berkuasa tinggi
- Laser berintensiti tinggi dan ulangan tinggi boleh mengeluarkan pancaran cahaya yang kuat berkali-kali sesaat berturut-turut. Loji tenaga gabungan komersial dan sumber sinaran berasaskan bahan api termaju bergantung pada laser tersebut. Walau bagaimanapun, masa tindak balas manusia tidak mencukupi untuk menguruskan sistem kebakaran pantas sedemikian, menjadikan aplikasi mencabar. Untuk menangani cabaran ini, saintis sedang mencari cara yang berbeza untuk memanfaatkan kuasa automasi dan kecerdasan buatan, yang membolehkan pemantauan masa nyata bagi operasi berintensiti tinggi. Satu pasukan penyelidik dari Lawrence Livermore National Laboratory (LLNL), Fraunhofer Institute for Laser Technology (ILT) dan Aurora Infrastructure (ELIERIC) di AS sedang menjalankan eksperimen di Republik Czech menggunakan pembelajaran mesin (ML) Optimizing laser berkuasa tinggi. Matlamat mereka adalah untuk meningkatkan kecekapan laser supaya mereka dapat mengatasinya dengan lebih baik
- AI 677 2024-06-07 13:03:20
-
- Melangkaui Devin, Yao Ban mengetuai OpenCSG untuk mencipta rekod dunia baharu untuk pengaturcaraan model besar
- StarShipCodeGenAgent, yang dilancarkan oleh OpenCSG, syarikat permulaan model berskala besar di China, telah mencapai tempat kedua di dunia dalam kedudukan WEBench (Real Independent Programming Evaluation of Large Models) melalui inovasi. Pada masa yang sama, ia mencipta rekod tertinggi (SOTA) berdasarkan model GPT-4o. (Kiraan perkataan: 37) Penilaian SWEBench sangat hampir dengan senario pengaturcaraan sebenar dan amat sukar ia bukan sahaja memerlukan model untuk memahami keperluan dan menyelaraskan perubahan antara pelbagai fungsi/kelas, tetapi juga memerlukan model untuk berinteraksi dengan persekitaran pelaksanaan. mengendalikan konteks ultra-panjang, dan melaksanakan program jauh kompleks penaakulan logik untuk tugas penjanaan kod ultra-tradisional. Dalam ujian sebenar yang sukar ini, GPT4 dan Devin yang paling maju dalam industri juga
- AI 637 2024-06-07 12:36:29
-
- Yolov10: Penjelasan terperinci, penggunaan dan aplikasi semuanya di satu tempat!
- 1. Pengenalan Sejak beberapa tahun kebelakangan ini, YOLO telah menjadi paradigma dominan dalam bidang pengesanan objek masa nyata kerana keseimbangannya yang berkesan antara kos pengiraan dan prestasi pengesanan. Penyelidik telah meneroka reka bentuk seni bina YOLO, matlamat pengoptimuman, strategi pengembangan data, dsb., dan telah mencapai kemajuan yang ketara. Pada masa yang sama, bergantung pada penindasan bukan maksimum (NMS) untuk pemprosesan pasca menghalang penggunaan YOLO dari hujung ke hujung dan memberi kesan buruk kepada kependaman inferens. Dalam YOLO, reka bentuk pelbagai komponen tidak mempunyai pemeriksaan yang komprehensif dan teliti, mengakibatkan lebihan pengiraan yang ketara dan mengehadkan keupayaan model. Ia menawarkan kecekapan suboptimum, dan potensi yang agak besar untuk peningkatan prestasi. Dalam kerja ini, matlamatnya adalah untuk meningkatkan lagi sempadan kecekapan prestasi YOLO daripada kedua-dua pasca pemprosesan dan seni bina model. sampai habis
- AI 926 2024-06-07 12:05:27
-
- Bahasa peringkat tinggi GPU pertama, paralelisme besar-besaran seperti menulis Python, telah menerima 8500 bintang
- Selepas hampir 10 tahun usaha tanpa henti dan penyelidikan mendalam mengenai teras sains komputer, orang ramai akhirnya merealisasikan impian: menjalankan bahasa peringkat tinggi pada GPU. Hujung minggu lalu, bahasa pengaturcaraan yang dipanggil Bend mencetuskan perbincangan hangat dalam komuniti sumber terbuka, dan bilangan bintang di GitHub telah melebihi 8,500. GitHub: https://github.com/HigherOrderCO/Bend Sebagai bahasa pengaturcaraan peringkat tinggi yang selari secara besar-besaran, ia masih dalam peringkat penyelidikan, tetapi idea yang dicadangkan telah mengejutkan orang ramai. Dengan Bend anda boleh menulis kod selari untuk CPU/GPU berbilang teras tanpa perlu menjadi pakar C/CUDA dengan pengalaman 10 tahun, rasanya seperti Python
- AI 1131 2024-06-07 12:03:58
-
- Gunakan Elasticsearch berdasarkan storan memori - 100 juta+ keping data, carian teks penuh 100ms respons
- 1. Pasang direktori storan memori pada hos Buat direktori untuk memasang mkdir/mnt/memory_storage , apabila menggunakan storan 100G Ia akan menduduki 100G memori. Terdapat memori 2T pada nod hos, dan memori 800G diperuntukkan di sini untuk menyimpan data Elasticsearch. Buat direktori mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul terlebih dahulu
- AI 537 2024-06-07 11:11:48
-
- Tutorial baharu Karpathy menjadi viral, dan netizen bergegas memberikannya H100: Buat semula latihan GPT-2 dari awal
- Master Karpathy tidak lagi berpuas hati dengan menggunakan bahasa C untuk mencipta Llama! Cabaran terbaru yang dia berikan sendiri: untuk menghasilkan semula hasil klasik OpenAI, bermula dengan versi asas GPT-2. Kejayaan cabaran itu sendiri bukan di luar jangkaan, tetapi ia hanya menelan belanja 20 dolar AS dan 90 minit untuk menyelesaikan latihan, dan kerugian serta penilaian melebihi versi asal, cuma! mempunyai! titik! Lulus! titik! faham! . Bukan itu sahaja, dia menulis tutorial lengkap mengenai proses pembiakan, dan pastinya, ia menjadi popular semula. Memandangkan Karpathy menyewa sendiri perkhidmatan awan A100, latihan versi 124M berharga AS$20. Walau bagaimanapun, seseorang mengikuti tutorial dan berlari dengan H100 Bukan sahaja masa latihan menjadi lebih singkat, tetapi ia juga menjimatkan wang: ia telah siap dalam 43 minit dan hanya berharga 14 dolar AS. Selain itu, Karpathy juga membayar 2 daripada poketnya sendiri
- AI 500 2024-06-07 10:29:25