lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- Dalam 18 bulan, pasukan OpenAI membangunkan GPT-4o
- Ultraman: Tanpa wawasan, bakat, kepercayaan dan keazamannya (Prafulla Dhariwal), tidak akan ada GPT-4o. "GPT-4o tidak akan dapat dicapai tanpa visi, bakat, kepercayaan dan keazaman jangka panjang @prafdhar. Usaha ini (dan kerja ramai yang lain) yang telah membawa kepada apa yang saya harapkan akan menjadi revolusi dalam cara komputer digunakan." Dua hari selepas OpenAI mengeluarkan model penjanaan perdana generasi baharunya GPT-4o, Ketua Pegawai Eksekutif OpenAI Altman mengulas mengenai salah seorang yang terlibat dalam projek itu. Selepas 18 bulan bekerja dengan berbilang pasukan di OpenAI, pengasas bersama Greg Brockman berkata: “GPT-4o adalah hasil daripada usaha seluruh pasukan.
- AI 718 2024-06-13 10:33:27
-
- Para saintis menggunakan GenAI untuk menemui pandangan baharu dalam fizik
- Dengan bantuan daripada saintis di MIT dan Universiti Basel di Switzerland, penyelidik telah membangunkan rangka kerja pembelajaran mesin (ML) baharu yang boleh membantu mendedahkan cerapan baharu tentang sains bahan. Hasil kajian ini diterbitkan dalam Surat Kajian Fizikal. Penyelidikan ini menggunakan pendekatan berasaskan rangkaian saraf untuk meramal dan mengoptimumkan sifat dan ciri bahan dengan cepat dengan menganalisis sejumlah besar data bahan. Rangka kerja GenAI ini sangat automatik dan cekap serta boleh membantu mempercepatkan kemajuan penyelidikan bahan. Para penyelidik mengatakan rangka kerja mereka boleh digunakan untuk pelbagai aplikasi Apabila air berubah daripada cecair kepada pepejal, ia mengalami sifat transformasi yang penting, seperti isipadu dan ketumpatan. Perubahan fasa dalam air adalah sangat biasa sehingga kita tidak memikirkannya secara serius, tetapi ia adalah sistem fizikal yang kompleks. semasa perubahan fasa
- AI 438 2024-06-13 10:32:22
-
- Model dunia juga tersebar! Ejen terlatih ternyata cukup bagus
- Model dunia menyediakan cara untuk melatih agen pembelajaran pengukuhan dengan cara yang selamat dan cekap sampel. Baru-baru ini, model dunia kebanyakannya beroperasi pada jujukan pembolehubah pendam diskret untuk mensimulasikan dinamik persekitaran. Walau bagaimanapun, kaedah memampatkan kepada perwakilan diskret padat ini mungkin mengabaikan butiran visual yang penting untuk pembelajaran pengukuhan. Sebaliknya, model resapan telah menjadi kaedah dominan untuk penjanaan imej, menimbulkan cabaran kepada model terpendam diskret. Digalakkan oleh anjakan paradigma ini, penyelidik dari Universiti Geneva, Universiti Edinburgh dan Microsoft Research bersama-sama mencadangkan agen pembelajaran pengukuhan yang dilatih dalam model dunia resapan-DIAMOND (DIffusionAsaModelOfeNvironmentDreams). Alamat kertas: https:
- AI 429 2024-06-13 10:12:24
-
- Agenda Persidangan Zhiyuan 2024 Didedahkan丨Mesyuarat Pertukaran Bakat Kepintaran Buatan
- Dari 14 hingga 15 Jun 2024, Persidangan Sumber Pintar Beijing ke-6 akan diadakan dalam gabungan luar talian dan dalam talian Tempat luar talian akan terletak di Pusat Persidangan Zon Demonstrasi Bebas Kebangsaan Zhongguancun. Persidangan Zhiyuan 2024 sekali lagi menghimpunkan penyelidik cemerlang tahun ini dengan perspektif global untuk bertukar-tukar idea baharu, meneroka idea baharu dan menerajui sempadan baharu. Saluran pendaftaran kini dibuka secara rasmi. Mesyuarat Pertukaran Bakat Kecerdasan Buatan丨Pada petang 14 Jun, Persidangan Zhiyuan Beijing 2024 akan mengadakan mesyuarat pertukaran tertutup mengenai Pembangunan Bakat Kecerdasan Buatan Kami dengan ikhlas menjemput anda untuk membincangkan isu utama dalam pembangunan bakat kecerdasan buatan. Forum perbincangan akan menumpukan pada bidang kecerdasan, bahasa semula jadi, penglihatan mesin, multimodaliti, pembelajaran pengukuhan, AI untuk Sains dan arahan lain untuk menyediakan anda
- AI 1276 2024-06-13 10:00:59
-
- HKU Byte mencadangkan paradigma baharu model besar berbilang modal, mensimulasikan persepsi manusia dahulu dan kemudian kognisi, untuk mengesan objek dalam gambar dengan tepat
- Pada masa ini, model besar multimodal (MLLM) telah menunjukkan keupayaan pemahaman kognitif yang kuat pada pelbagai tugas visual. Walau bagaimanapun, kebanyakan model berbilang modal yang besar terhad kepada pemahaman imej sehala, menjadikannya sukar untuk memetakan kandungan yang difahami kembali kepada imej. Sebagai contoh, model boleh dengan mudah memberitahu objek apa yang ada dalam gambar, tetapi ia tidak dapat mengenal pasti objek dalam gambar dengan tepat. Kekurangan keupayaan penentududukan secara langsung mengehadkan penggunaan model besar berbilang mod dalam bidang hiliran seperti penyuntingan imej, pemanduan autonomi dan kawalan robot. Sebagai tindak balas kepada masalah ini, penyelidik dari Universiti Hong Kong dan pasukan pengkomersilan ByteDance mencadangkan paradigma baharu, Groma, yang menggunakan pengekodan imej serantau untuk meningkatkan keupayaan kedudukan persepsi model besar berbilang modal. Selepas menyepadukan kedudukan, Groma boleh secara langsung mengaitkan kandungan teks dan kawasan imej untuk dipaparkan
- AI 814 2024-06-12 22:18:00
-
- Universiti Tsinghua dan sumber terbuka Zhipu AI GLM-4: melancarkan revolusi baharu dalam pemprosesan bahasa semula jadi
- Sejak pelancaran ChatGLM-6B pada 14 Mac 2023, model siri GLM telah mendapat perhatian dan pengiktirafan yang meluas. Terutama selepas ChatGLM3-6B menjadi sumber terbuka, pembangun penuh dengan jangkaan untuk model generasi keempat yang dilancarkan oleh Zhipu AI. Jangkaan ini akhirnya telah berpuas hati sepenuhnya dengan keluaran GLM-4-9B. Kelahiran GLM-4-9B Untuk memberikan model kecil (10B dan ke bawah) keupayaan yang lebih berkuasa, pasukan teknikal GLM melancarkan model sumber terbuka siri GLM generasi keempat baharu ini: GLM-4-9B selepas hampir setengah tahun penerokaan. Model ini sangat memampatkan saiz model sambil memastikan ketepatan, dan mempunyai kelajuan inferens yang lebih pantas dan kecekapan yang lebih tinggi. Penerokaan pasukan teknikal GLM tidak
- AI 1050 2024-06-12 20:38:02
-
- 7B? 13B? 175B? Mentafsir parameter model besar
- Terdapat juga model besar dan kecil, dan saiznya diukur dengan bilangan parameter. GPT-3 mempunyai 17.5 bilion parameter, dan Grok-1 lebih mengagumkan, dengan 31.4 bilion parameter. Sudah tentu, terdapat juga yang lebih langsing seperti Llama, yang bilangan parameternya hanya antara 7 bilion dan 70 bilion. 70B yang disebut di sini mungkin tidak merujuk kepada jumlah data latihan, tetapi kepada parameter padat padat dalam model. Parameter ini adalah seperti "sel otak" yang kecil. Dengan "sel otak" ini, model mungkin berprestasi lebih baik pada tugasan. Walau bagaimanapun, banyak kali parameter ini, terutamanya dalam model berskala besar, boleh menyebabkan masalah. "sel otak" ini adalah
- AI 834 2024-06-12 20:04:15
-
- YoloCS: Mengurangkan kerumitan ruang peta ciri dengan berkesan
- Alamat kertas: YOLOCS:ObjectDetectionbasedonDenseChannelCompressionforFeatureSpatialSolidification(arxiv.org)01 Gambaran Keseluruhan Dalam perkongsian hari ini, para penyelidik meneliti korelasi antara ciri saluran dan kernel konvolusi semasa pembersihan ciri dan perambatan belakang kecerunan, memfokuskan pada bahagian hadapan dalam rangkaian. Oleh itu, penyelidik mencadangkan kaedah pemejalan ruang ciri yang dipanggil pemampatan saluran padat. Berdasarkan konsep teras kaedah, dua modul inovatif untuk rangkaian tulang belakang dan kepala diperkenalkan: mampatan saluran padat (DCFS) untuk pemejalan ruang ciri dan mampatan berbilang peringkat asimetri
- AI 455 2024-06-12 17:49:26
-
- Meta melancarkan 'Chameleon' untuk mencabar parameter GPT-4o, 34B mengetuai revolusi pelbagai modal! Latihan token 10 trilion menyegarkan SOTA
- Kemunculan GPT-4o sekali lagi mencipta paradigma baharu untuk pembangunan model pelbagai mod! Kenapa awak berkata demikian? OpenAI memanggilnya "model multi-modal 'asli' pertama", yang bermaksud bahawa GPT-4o berbeza daripada semua model sebelumnya. Model asas pelbagai modal tradisional biasanya menggunakan "pengekod" atau "penyahkod" khusus untuk setiap modaliti untuk memisahkan modaliti yang berbeza. Walau bagaimanapun, pendekatan ini mengehadkan keupayaan model untuk menggabungkan maklumat silang modal dengan berkesan. GPT-4o ialah model terlatih "hujung ke hujung pertama" yang boleh merangkumi mod teks, visual dan audio, dengan semua input dan output diproses oleh rangkaian saraf tunggal. Dan kini, model pertama industri yang berani mencabar GPT-4o telah muncul! Baru-baru ini, daripada kumpulan Meta
- AI 928 2024-06-12 13:18:58
-
- 3 kali ganda kelajuan penjanaan dan mengurangkan kos memori, rangka kerja penyahkodan yang cekap yang mengatasi Medusa2 akhirnya di sini
- Menyahkod jujukan n-token dengan cekap, rangka kerja penyahkodan CLLMs+Jacobi. Secara tradisinya, model bahasa besar (LLM) dianggap sebagai penyahkod berjujukan, menyahkod setiap token satu demi satu. Pasukan penyelidik dari Universiti Shanghai Jiao Tong dan University of California menunjukkan bahawa LLM yang telah terlatih boleh diajar dengan mudah untuk menjadi penyahkod selari yang cekap dan memperkenalkan keluarga penyahkod selari baharu yang dipanggil Consistent Large Language Models (CLLMs) , mampu mengurangkan kependaman inferens dengan cekap menyahkod jujukan n-token pada setiap langkah inferens. Dalam makalah ini, penyelidikan menunjukkan bahawa "meniru proses kognitif yang digunakan manusia untuk menyatakan ungkapan perkataan demi perkataan selepas membentuk ayat lengkap dalam kepala mereka boleh dipelajari dengan berkesan dengan hanya memperhalusi LLM pra-latihan.
- AI 1006 2024-06-12 11:55:28
-
- Tindakan pertama Ilya selepas meninggalkan kerjanya: Suka kertas ini, dan netizen bergegas membacanya
- Sejak Ilya Sutskever secara rasmi mengumumkan peletakan jawatannya daripada OpenAI, langkah seterusnya telah menjadi tumpuan semua orang. Malah ada yang memerhatikan setiap gerak-gerinya. Tidak, Ilya hanya suka ❤️ kertas baru - netizen melompat ke atasnya: kertas itu berasal dari MIT, penulis mengemukakan hipotesis, disimpulkan dalam satu ayat seperti ini: Rangkaian Neuro yang dilatih pada data dan modaliti yang berbeza dengan matlamat yang berbeza cenderung untuk membentuk model statistik dikongsi dunia sebenar dalam ruang perwakilan mereka. Mereka menamakan spekulasi ini sebagai Hipotesis Perwakilan Platonik, merujuk kepada Alegori Gua Plato dan ideanya tentang sifat realiti ideal. Pemilihan Ilya masih terjamin Beberapa netizen menyebutnya sebagai yang terbaik yang mereka lihat tahun ini selepas menontonnya.
- AI 715 2024-06-12 11:22:14
-
- GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j)
- Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur
- AI 1485 2024-06-12 10:32:28
-
- Dengan terbina dalam 10,000+ perpustakaan kod Github yang popular, Baidu secara rasmi mengeluarkan Comate Code Knowledge Enhancement 2.0
- Pada 18 Mei 2019, Forum Sidang Kemuncak Elit Teknologi Internet China Utara iTechClub ke-7 telah diadakan Pengarah Jabatan Prestasi Kejuruteraan Baidu memberikan ucaptama mengenai "Ke Arah Paradigma Baharu R&D Asli AI untuk Kerjasama Manusia-Mesin". Beliau mengeluarkan pencapaian terkini pembantu kod pintar Baidu Comate - Peningkatan Pengetahuan Kod Comate 2.0 Ini ialah pembantu kod pintar pertama di China yang menyokong pengambilan masa nyata Ia mempunyai lebih daripada 10,000 perpustakaan kod popular Github, yang telah dibawa manfaat yang besar kepada pembangun di seluruh dunia Pengalaman pengaturcaraan yang tidak pernah berlaku sebelum ini. Sebagai salah satu acara utama persidangan ini, Peningkatan Pengetahuan Kod Comate 2.0 mendapat perhatian yang besar daripada para hadirin. Pembantu kod pintar Comate ialah pelengkapan kod pintar dan
- AI 1086 2024-06-11 22:45:15
-
- Prestasi setiap watt ditingkatkan sebanyak 2.6 kali, dan ketumpatan rak meningkat sebanyak 3 kali ganda Intel 3 bukanlah penciptaan yang mudah.
- Dalam dekad yang lalu, semakin banyak perusahaan telah memindahkan operasi mereka ke awan, dan pengkomputeran awan telah menjadi penggerak utama untuk pembinaan pusat data. Dengan pembangunan berterusan kecerdasan buatan, terutamanya letupan dan aplikasi meluas teknologi AI seperti model bahasa yang besar, permintaan pasaran untuk kuasa pengkomputeran juga meningkat, seterusnya menggalakkan transformasi berterusan pusat data. Hari ini, pusat data bukan sahaja perlu memenuhi keperluan kuasa pengkomputeran bagi beban kerja yang pelbagai termasuk AI, Web dan perkhidmatan mikro, tetapi juga perlu menangani pelbagai cabaran seperti reka bentuk seni bina, bekalan kuasa, ketumpatan rak, penyejukan dan pelesapan haba, pengurangan TCO , dan pembangunan mampan. Untuk memenuhi keperluan kuasa pengkomputeran yang semakin meningkat dan beban kerja pelbagai pusat data moden, Intel mengadakan sidang akhbar hari ini di Pusat Pengalaman Teknologi Intel GTC dan mengeluarkan Intel baharu
- AI 945 2024-06-11 21:22:01
-
- Era baharu pembangunan bahagian hadapan VSCode: 12 pembantu kod AI yang sangat disyorkan
- Dalam dunia pembangunan bahagian hadapan, VSCode telah menjadi alat pilihan untuk banyak pembangun dengan fungsi yang berkuasa dan ekosistem pemalam yang kaya. Dalam beberapa tahun kebelakangan ini, dengan perkembangan pesat teknologi kecerdasan buatan, pembantu kod AI pada VSCode telah muncul, meningkatkan kecekapan pengekodan pembangun. Pembantu kod AI pada VSCode telah muncul seperti cendawan selepas hujan, meningkatkan kecekapan pengekodan pembangun. Ia menggunakan teknologi kecerdasan buatan untuk menganalisis kod secara bijak dan menyediakan penyiapan kod yang tepat, pembetulan ralat automatik, semakan tatabahasa dan fungsi lain, yang mengurangkan kesilapan pembangun dan kerja manual yang membosankan semasa proses pengekodan. Hari ini, saya akan mengesyorkan 12 pembantu kod AI pembangunan bahagian hadapan VSCode untuk membantu anda dalam perjalanan pengaturcaraan anda.
- AI 805 2024-06-11 19:47:09