lokasi sekarang:Rumah > Artikel teknikal > Peranti teknologi > AI
- Arah:
- semua web3.0 pembangunan bahagian belakang hujung hadapan web pangkalan data Operasi dan penyelenggaraan alat pembangunan rangka kerja php pengaturcaraan harian applet WeChat masalah biasa lain teknologi Tutorial CMS Java Tutorial sistem tutorial komputer Tutorial Perkakasan Tutorial mudah alih Tutorial perisian Tutorial permainan mudah alih
- Mengelaskan:
-
- 30 kali lebih cekap daripada kaedah tradisional, model pembelajaran mendalam Transformer pasukan Akademi Sains China meramalkan tapak interaksi gula-protein
- Gula adalah bahan organik yang paling banyak di alam semula jadi dan penting untuk kehidupan. Memahami bagaimana karbohidrat mengawal protein semasa proses fisiologi dan patologi boleh memberi peluang untuk menangani soalan biologi utama dan membangunkan rawatan baharu. Walau bagaimanapun, kepelbagaian dan kerumitan molekul gula menimbulkan cabaran untuk mengenal pasti tapak pengikatan dan interaksi protein-gula secara eksperimen. Di sini, pasukan dari Akademi Sains China membangunkan DeepGlycanSite, model pembelajaran mendalam yang boleh meramalkan tapak pengikat gula dengan tepat pada struktur protein tertentu. DeepGlycanSite menyepadukan ciri geometri dan evolusi protein ke dalam rangkaian neural graf setara yang mendalam dengan seni bina Transformer Prestasinya dengan ketara mengatasi kaedah lanjutan sebelumnya dan boleh meramalkan dengan berkesan
- AI 957 2024-07-01 15:17:50
-
- Lebih daripada 300 kajian berkaitan, kertas semakan penyuntingan imej pelbagai mod terkini daripada Universiti Fudan dan Universiti Teknologi Nanyang
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Shuai Xincheng, pengarang pertama artikel ini, sedang belajar untuk PhD di Makmal FVL Universiti Fudan dan lulus dari Universiti Shanghai Jiao Tong dengan ijazah sarjana muda. Minat penyelidikan utamanya termasuk penyuntingan imej dan video serta pembelajaran multimodal. Pengenalan Artikel ini mencadangkan pendekatan bersatu untuk menyelesaikan tugas penyuntingan umum.
- AI 512 2024-06-29 06:14:41
-
- Dengan ketepatan 0.96, rangkaian neural graf kekangan fizikal dan kimia digunakan untuk meramalkan interaksi protein-ligan daripada jujukan.
- Editor |. Kulit Lobak Dalam pembangunan ubat, adalah penting untuk menentukan pertalian pengikatan dan kesan fungsian ligan molekul kecil pada protein. Kaedah pengiraan semasa boleh meramalkan sifat interaksi protein-ligan ini, tetapi tanpa struktur protein resolusi tinggi, ketepatan sering hilang dan kesan berfungsi tidak dapat diramalkan. Penyelidik di Universiti Monash dan Universiti Griffith telah membangunkan PSICHIC (PhySIcoCHhemICalgraphneuralnetwork), rangka kerja yang menggabungkan kekangan fizikokimia untuk menyahkod cap jari interaksi terus daripada data jujukan. Ini membolehkan PSICHIC menyahkod mekanisme di sebalik interaksi protein-ligan, mencapai ketepatan dan kebolehtafsiran terkini. Dengan ketiadaan data berstruktur
- AI 636 2024-06-29 05:16:50
-
- 'Kerja ikhlas' Google, sumber terbuka 9B dan 27B versi Gemma2, memfokuskan pada kecekapan dan ekonomi!
- Bagaimanakah Gemma2, yang mempunyai prestasi dua kali ganda, boleh bermain dengan Llama3, yang mempunyai tahap prestasi yang sama? Di landasan AI, gergasi teknologi bersaing hebat. GPT-4o keluar di kaki hadapan, dan Claude3.5Sonnet muncul di kaki belakang. Dalam pertempuran yang begitu sengit, walaupun Google melancarkan usahanya lewat, ia mempunyai keupayaan yang ketara untuk membuat susulan dalam tempoh yang singkat, yang menunjukkan potensinya untuk pembangunan teknologi dan inovasi. Sebagai tambahan kepada model Gemini, Gemma, satu siri model terbuka SOTA yang ringan, nampaknya lebih dekat dengan kami. Ia dibina atas penyelidikan dan teknologi yang sama seperti model Gemini dan bertujuan untuk memberi semua orang alat untuk membina AI. Google terus mengembangkan keluarga Gemma, termasuk CodeGemma, RecurrentGemma dan P
- AI 1011 2024-06-29 00:59:21
-
- ICML 2024 |. Mendedahkan mekanisme pembelajaran Transformer bukan linear dan generalisasi dalam pembelajaran kontekstual
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini, Li Hongkang, adalah pelajar kedoktoran di Jabatan Kejuruteraan Elektrik, Komputer dan Sistem di Institut Politeknik Rensselaer di Amerika Syarikat Universiti Sains dan Teknologi China dengan ijazah sarjana muda. Arah penyelidikan termasuk teori pembelajaran mendalam, teori model bahasa besar, pembelajaran mesin statistik, dsb. Kini dalam ICLR/
- AI 428 2024-06-29 00:44:41
-
- Mengalahkan Gemini-1.5-Pro dan GPT-4V, kedudukan antara tiga teratas di dunia dalam keupayaan pelbagai mod model besar
- Baru-baru ini, model besar Yuncong Technology telah mencapai kemajuan yang ketara dalam bidang penilaian pelbagai mod OpenCompass, platform penilaian komprehensif yang berwibawa. Keputusan penilaian terkini menunjukkan bahawa skor purata model besar Congrong Yuncong Technology dalam sistem ini ialah 65.5 Keputusan ini meletakkan model besar Congrong ke dalam tiga teratas di dunia, mengatasi Gemini-1.5-Pro dan GPT-4v Google. kedudukan kedua Pada GPT-4o (69.9) dan Claude3.5-Sonnet (67.9). Di pasaran domestik, prestasi model besar itu juga melebihi InternVL-Chat (61.7) dan GLM-4V (60.8), menduduki tempat pertama. 1. Senarai berbilang modal OpenCompass OpenCom
- AI 965 2024-06-29 00:25:01
-
- Pasukan Bengio mencadangkan penanda aras pelbagai mod baharu, menyasarkan kelemahan Claude 3.5 dan GPT-4o
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Penulis artikel ini, Zhang Tianyu, belajar di Institut Kecerdasan Buatan Mila di Kanada dan belajar di bawah Profesor Yoshua Bengio, pemenang Anugerah Turing. Kerja utama semasa tempoh kedoktoran tertumpu pada pelbagai modaliti, GFlowNet, pembelajaran pengukuhan pelbagai ejen, AI dan perubahan iklim
- AI 782 2024-06-29 00:06:53
-
- Model Depth Anything V2 pasukan model Byte telah dipilih sebagai model CoreML terbaru Apple
- Baru-baru ini, Apple mengeluarkan 20 model CoreML baharu dan 4 set data pada HuggingFace, dan model anggaran kedalaman monokular DepthAnythingV2 daripada Pasukan Model Byte telah dipilih antaranya. Rangka kerja pembelajaran mesin CoreML Apple digunakan untuk menyepadukan model pembelajaran mesin ke dalam peranti seperti iOS dan MacOS untuk berjalan dengan cekap. Laksanakan tugas AI yang kompleks tanpa memerlukan sambungan internet, tingkatkan privasi pengguna dan kurangkan kependaman. Pembangun Apple boleh menggunakan model ini untuk membina aplikasi AI yang pintar dan selamat. Model anggaran kedalaman monokular yang dibangunkan oleh pasukan model besar DepthAnythingV2 byte. Versi V2 mempunyai pemprosesan butiran yang lebih halus, keteguhan yang lebih kukuh dan kelajuan yang dipertingkatkan dengan ketara. Mengandungi 25M hingga
- AI 366 2024-06-28 22:40:06
-
- Tukar imej kepada teks secara automatik dan penerangan imej adalah berkualiti tinggi dan lebih tepat.
- Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Pi Renjie: pelajar kedoktoran tahun ketiga di Universiti Sains dan Teknologi Hong Kong, belajar di bawah Profesor Zhang Tong dan Profesor Zhou Xiaofang. Menerima Biasiswa Apple pada 2024. Arah penyelidikan utama semasa ialah model bahasa besar berbilang modal dan AI berpusatkan data. Zhang Jianshu: pelajar tahun ketiga sarjana muda di Universiti Wuhan,
- AI 884 2024-06-28 21:41:35
-
- Kelahiran Cambrian No. 1: Pasukan Xie Saining dan Yann LeCun mengeluarkan LLM berbilang modal sumber terbuka yang paling berkuasa
- Sama seperti haiwan mempunyai mata, Cambrian-1 daripada pasukan Yann LeCun membolehkan AI memperoleh keupayaan pembelajaran perwakilan visual yang berkuasa. Sepanjang zaman, ramai ahli falsafah telah meneroka persoalan ini: Adakah pemahaman makna bahasa perlu berdasarkan pancaindera? Walaupun ahli falsafah tidak bersetuju, satu perkara yang jelas: asas deria yang kukuh dan berkesan sekurang-kurangnya dapat membantu. Sebagai contoh, para saintis secara amnya percaya bahawa kemunculan penglihatan semasa Letupan Cambrian merupakan langkah penting dalam evolusi haiwan awal ia bukan sahaja membantu haiwan mencari makanan dengan lebih baik dan mengelakkan pemangsa, tetapi juga membantu evolusi haiwan itu sendiri; Sebenarnya, kebanyakan pengetahuan manusia (dan hampir semua haiwan) diperolehi melalui pengalaman deria yang berinteraksi dengan fizikal.
- AI 1073 2024-06-28 21:28:07
-
- Model besar domestik mencapai ketinggian baharu! iFlytek Spark 4.0 dikeluarkan: keseluruhannya mengatasi GPT-4 Turbo, menduduki tempat pertama dalam 8 set ujian berwibawa antarabangsa
- Keupayaan model besar domestik telah mencapai tahap yang baru! Pada 27 Jun, iFlytek secara rasmi mengeluarkan model iFlytek Spark V4.0, serta aplikasi kecerdasan buatan dalam banyak bidang seperti penjagaan perubatan, pendidikan dan perniagaan. Dengan keluaran versi baharu, tujuh keupayaan teras iFlytek Spark V4.0 telah dinaik taraf sepenuhnya, menduduki tempat pertama dalam 8 set ujian arus perdana antarabangsa, secara keseluruhannya mengatasi GPT-4Turbo, dan menerajui model besar domestik. Liu Qingfeng berkata pada masa ini, jumlah muat turun Spark APP telah mencecah 131 juta, dan beberapa pembantu aplikasi kegemaran pengguna telah muncul. Dengan sokongan model Spark, jualan perkakasan pintar dalam beberapa senario meningkat sebanyak 70%+ tahun ke tahun, dengan purata penggunaan bulanan melebihi 40 juta. Selain itu, model besar Xinghuo V4.0 adalah berdasarkan Wanka domestik pertama di negara ini
- AI 1024 2024-06-28 20:52:47
-
- Teknologi penjanaan video AI masa nyata pertama dalam sejarah: DiT universal, 10.6 kali lebih pantas
- DiT boleh digunakan untuk menjana video tanpa kehilangan kualiti dan latihan tidak diperlukan. Penjanaan video AI masa nyata ada di sini! Pada hari Rabu, pasukan You Yang Universiti Nasional Singapura mencadangkan kaedah penjanaan video berasaskan DiT pertama dalam industri yang boleh dikeluarkan dalam masa nyata. Teknologi itu dipanggil PyramidAttentionBroadcast (PAB). Dengan mengurangkan pengiraan perhatian yang berlebihan, PAB mencapai kadar bingkai sehingga 21.6FPS dan kelajuan 10.6x tanpa mengorbankan faedah model penjanaan video berasaskan DiT yang popular termasuk kualiti Open-Sora, Open-Sora-Plan dan Latte. Perlu diingat bahawa sebagai kaedah yang tidak memerlukan latihan, PAB boleh digunakan untuk mana-mana berasaskan DiT masa hadapan
- AI 1246 2024-06-28 19:14:46
-
- Tsinghua AIR dan lain-lain mencadangkan ESM-AA, model bahasa protein pertama daripada asid amino kepada skala atom
- Pasukan penyelidik dari Universiti Tsinghua AIR, Universiti Peking, dan Universiti Nanjing mencadangkan model ESM-AA. Model ini telah mencapai kemajuan penting dalam bidang pemodelan bahasa protein, menyediakan penyelesaian pemodelan bersatu yang menyepadukan maklumat berbilang skala. Ia adalah model bahasa pra-latihan protein pertama yang boleh mengendalikan kedua-dua maklumat asid amino dan maklumat atom. Prestasi cemerlang model menunjukkan potensi besar pemodelan bersatu berbilang skala untuk mengatasi had sedia ada dan membuka kunci keupayaan baharu. Sebagai model asas, ESM-AA telah mendapat perhatian dan perbincangan meluas daripada ramai sarjana (lihat tangkapan skrin di bawah Ia dianggap berpotensi untuk membangunkan model berdasarkan ESM-AA yang boleh bersaing dengan AlphaFold3 dan RoseTTAFoldAll-Atom, dan menyediakan). platform untuk mengkaji fasa organisma yang berbeza antara struktur
- AI 1121 2024-06-28 18:10:06
-
- Cekap dan tepat, pasukan Universiti Zhengzhou membangunkan alat AI baharu untuk mengenal pasti interaksi sasaran dadah
- Editor |. Rama-rama Daun Kering Pengenalpastian tepat interaksi sasaran dadah (DTI) ialah salah satu langkah utama dalam penemuan ubat dan proses penempatan semula ubat. Pada masa ini, banyak model berasaskan pengiraan telah dicadangkan untuk meramalkan DTI, dan beberapa kemajuan ketara telah dicapai. Walau bagaimanapun, kaedah ini jarang memberi tumpuan kepada cara menggabungkan rangkaian persamaan berbilang paparan yang berkaitan dengan ubat dan sasaran dengan cara yang sesuai. Tambahan pula, cara untuk menggabungkan sepenuhnya hubungan interaksi yang diketahui untuk mewakili ubat dan sasaran dengan tepat belum dikaji dengan baik. Oleh itu, meningkatkan ketepatan model ramalan DTI masih perlu. Dalam penyelidikan terkini, pasukan dari Universiti Zhengzhou dan Universiti Sains dan Teknologi Elektronik China mencadangkan kaedah baharu, MIDTI. Kaedah ini menggunakan strategi gabungan rangkaian persamaan pelbagai pandangan dan mekanisme perhatian interaktif yang mendalam untuk meramalkan dadah.
- AI 1139 2024-06-28 02:31:25
-
- Disesuaikan khusus untuk lima bidang saintifik utama, NASA dan IBM bekerjasama untuk membangunkan model bahasa besar INDUS
- INDUS, dinamakan sempena buruj selatan, ialah set komprehensif model bahasa berskala besar yang menyokong lima bidang saintifik. (Sumber: NASA) Editor |. Model bahasa besar (LLM) KX yang dilatih pada sejumlah besar data berprestasi baik pada pemahaman bahasa semula jadi dan tugas penjanaan. Kebanyakan LLM popular dilatih menggunakan korpora am seperti Wikipedia, tetapi perubahan pengedaran perbendaharaan kata membawa kepada prestasi yang lemah dalam domain tertentu. Diilhamkan oleh ini, NASA bekerjasama dengan IBM untuk membangunkan INDUS, satu set komprehensif LLM yang disesuaikan untuk bidang sains Bumi, biologi, fizik, heliofizik, sains planet dan astrofizik serta menggunakan data daripada sumber data saintifik yang dipilih susun yang berbeza digunakan. untuk latihan. INDUS mengandungi dua jenis model: pengekod dan ayat
- AI 817 2024-06-27 20:28:32