Jadual Kandungan
Kaedah
NCB
NTB
NHS
Hasil eksperimen
Tugas pengelasan pada ImageNet-1K
Tugas segmentasi semantik pada ADE20K
Pengesanan objek dan pembahagian contoh
Eksperimen Ablasi dan Visualisasi
Rumah Peranti teknologi AI Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Apr 09, 2023 pm 02:01 PM
AI Model

Disebabkan mekanisme perhatian dan reka bentuk model yang kompleks, kebanyakan pengubah visual (ViT) sedia ada tidak dapat berfungsi dengan cekap seperti rangkaian saraf konvolusi (CNN) dalam senario penggunaan industri dunia sebenar. Ini menimbulkan persoalan: bolehkah rangkaian saraf visual membuat kesimpulan sepantas CNN dan sekuat ViT?

Beberapa karya baru-baru ini telah cuba mereka bentuk seni bina hibrid CNN-Transformer untuk menyelesaikan masalah ini, tetapi prestasi keseluruhan kerja ini adalah jauh dari memuaskan. Berdasarkan ini, penyelidik dari ByteDance mencadangkan Transformer visual generasi akan datang—Next-ViT—yang boleh digunakan dengan berkesan dalam senario industri kehidupan sebenar. Daripada perspektif tukar ganti kependaman/ketepatan, prestasi Next-ViT adalah setanding dengan CNN dan ViT yang sangat baik.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Alamat kertas: https://arxiv.org/pdf/2207.05501.pdf

Pasukan penyelidik Next-ViT menggunakan mekanisme mesra untuk menangkap maklumat tempatan dan global dengan membangunkan blok konvolusi novel (NCB) dan blok Transformer (NTB). Kajian itu kemudiannya mencadangkan strategi hibrid baru NHS yang bertujuan untuk menyusun NCB dan NTB dalam paradigma hibrid yang cekap untuk meningkatkan prestasi pelbagai tugas hiliran.

Eksperimen yang meluas menunjukkan bahawa Next-ViT dengan ketara mengatasi prestasi seni bina hibrid CNN, ViT dan CNN-Transformer sedia ada dari segi pertukaran kependaman/ketepatan untuk pelbagai tugas penglihatan. Pada TensorRT, Next-ViT mengatasi ResNet sebanyak 5.4 mAP pada tugas pengesanan COCO (40.4 VS 45.8) dan 8.2% mIoU pada segmentasi ADE20K (38.8% VS 47.0%). Sementara itu, Next-ViT mencapai prestasi yang setanding dengan CSWin dan mencapai inferens 3.6x lebih pantas. Pada CoreML, Next-ViT mengatasi EfficientFormer sebanyak 4.6 mAP pada tugas pengesanan COCO (42.6 VS 47.2) dan 3.5% mIoU pada segmentasi ADE20K (daripada 45.2% kepada 48.7%).

Kaedah

Seni bina keseluruhan Next-ViT ditunjukkan dalam Rajah 2 di bawah. Next-ViT mengikuti seni bina piramid hierarki, dengan lapisan pembenaman tampalan dan satu siri konvolusi atau blok Transformer pada setiap peringkat. Resolusi spatial akan dikurangkan secara beransur-ansur kepada 1/32 daripada yang asal, manakala dimensi saluran akan dikembangkan secara berperingkat.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Para penyelidik terlebih dahulu mereka bentuk modul teras interaksi maklumat, dan membangunkan NCB dan NTB yang berkuasa masing-masing untuk mensimulasikan jangka pendek dan panjang- istilah dalam Ketergantungan data visual. Maklumat tempatan dan global juga digabungkan di NTB untuk meningkatkan lagi keupayaan pemodelan. Akhir sekali, untuk mengatasi kelemahan yang wujud dalam kaedah sedia ada, kajian ini secara sistematik mengkaji integrasi blok konvolusi dan Transformer dan mencadangkan strategi NHS untuk menyusun NCB dan NTB untuk membina seni bina hibrid CNN-Transformer novel.

NCB

Penyelidik menganalisis beberapa reka bentuk struktur klasik, seperti ditunjukkan dalam Rajah 3 di bawah. Blok BottleNeck yang dicadangkan oleh ResNet [9] telah lama mendominasi rangkaian saraf visual kerana kecenderungan induktif yang wujud dan penggunaan mudah pada kebanyakan platform perkakasan. Malangnya, blok BottleNeck kurang berkesan daripada blok Transformer. Blok ConvNeXt [20] memodenkan blok BottleNeck dengan meniru reka bentuk blok Transformer. Walaupun sekatan ConvNeXt meningkatkan prestasi rangkaian, kelajuan inferensnya pada TensorRT/CoreML sangat terhad oleh komponen yang tidak cekap. Blok Transformer telah mencapai keputusan yang cemerlang dalam pelbagai tugas penglihatan Walau bagaimanapun, kelajuan inferens blok Transformer jauh lebih perlahan daripada blok BottleNeck pada TensorRT dan CoreML kerana mekanisme perhatiannya lebih kompleks, yang tidak berlaku dalam kebanyakan dunia nyata. senario perindustrian.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Untuk mengatasi masalah blok yang disebutkan di atas, kajian ini mencadangkan Next Convolution Block (NCB), yang mengekalkan kelebihan penggunaan Blok BottleNeck Pada masa yang sama, prestasi cemerlang blok Transformer diperolehi. Seperti yang ditunjukkan dalam Rajah 3(f), NCB mengikut seni bina umum MetaFormer (yang telah terbukti kritikal kepada blok Transformer).

Selain itu, pengadun token berasaskan perhatian yang cekap adalah sama penting. Kajian ini mereka bentuk perhatian konvolusi berbilang kepala (MHCA) sebagai pengadun token yang cekap menggunakan operasi konvolusi, dan membina NCB menggunakan lapisan MHCA dan MLP dalam paradigma MetaFormer [40].

NTB

NCB telah mempelajari perwakilan tempatan dengan berkesan, dan langkah seterusnya perlu menangkap maklumat global. Seni bina Transformer mempunyai keupayaan yang kuat untuk menangkap isyarat frekuensi rendah yang menyediakan maklumat global (seperti bentuk dan struktur global).

Walau bagaimanapun, penyelidikan berkaitan telah mendapati bahawa blok Transformer mungkin merosot maklumat frekuensi tinggi, seperti maklumat tekstur tempatan, pada tahap tertentu. Isyarat daripada jalur frekuensi yang berbeza adalah penting dalam sistem visual manusia, dan ia digabungkan dengan cara khusus untuk mengekstrak ciri yang lebih penting dan unik.

Dipengaruhi oleh hasil yang diketahui ini, kajian ini membangunkan Next Transformer Block (NTB) untuk menangkap isyarat berbilang frekuensi dalam mekanisme ringan. Selain itu, NTB boleh digunakan sebagai pengadun isyarat berbilang frekuensi yang cekap, meningkatkan lagi keupayaan pemodelan keseluruhan.

NHS

Beberapa usaha baru-baru ini telah dibuat untuk menggabungkan CNN dan Transformer untuk penggunaan yang cekap. Seperti yang ditunjukkan dalam Rajah 4(b)(c) di bawah, mereka hampir semua menggunakan blok konvolusi dalam peringkat cetek dan hanya menyusun blok Transformer dalam satu atau dua peringkat terakhir Gabungan ini berkesan dalam tugasan pengelasan. Tetapi kajian mendapati bahawa strategi hibrid ini boleh mencapai ketepuan prestasi dengan mudah pada tugas hiliran seperti segmentasi dan pengesanan. Sebabnya ialah tugas klasifikasi hanya menggunakan output peringkat terakhir untuk ramalan, manakala tugas hiliran (seperti segmentasi dan pengesanan) biasanya bergantung pada ciri setiap peringkat untuk mendapatkan hasil yang lebih baik. Ini kerana strategi hibrid tradisional hanya menyusun blok Transformer dalam beberapa peringkat terakhir, dan lapisan cetek tidak dapat menangkap maklumat global.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesanMembuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Kajian ini mencadangkan strategi hibrid (NHS) baharu yang secara kreatif menggabungkan blok konvolusi (NCB) dan blok Transformer (NTB) digabungkan dengan paradigma hibrid (N + 1) * L. NHS meningkatkan prestasi model dengan ketara pada tugas hiliran dan mencapai penggunaan yang cekap sambil mengawal bahagian blok Transformer.

Pertama, untuk memberikan lapisan cetek keupayaan untuk menangkap maklumat global, kajian ini mencadangkan strategi pencampuran mod (NCB×N+NTB×1), menyusun N dalam setiap peringkat dalam turutan NCB dan satu NTB, seperti ditunjukkan dalam Rajah 4(d). Khususnya, Blok Transformer (NTB) diletakkan pada penghujung setiap peringkat, membolehkan model mempelajari perwakilan global dalam lapisan cetek. Kajian ini menjalankan satu siri eksperimen untuk mengesahkan keunggulan strategi hibrid yang dicadangkan, dan prestasi strategi hibrid yang berbeza ditunjukkan dalam Jadual 1 di bawah.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Selain itu, seperti yang ditunjukkan dalam Jadual 2 di bawah, prestasi model besar secara beransur-ansur akan mencapai ketepuan. Fenomena ini menunjukkan bahawa membesarkan saiz model dengan membesarkan N untuk mod (NCB × N + NTB × 1), iaitu hanya menambah lebih banyak blok konvolusi bukanlah pilihan optimum untuk mod (NCB × N + NTB × 1). dalam boleh menjejaskan prestasi model dengan serius.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Oleh itu, penyelidik mula meneroka kesan nilai N pada prestasi model melalui eksperimen yang meluas. Seperti yang ditunjukkan dalam Jadual 2 (tengah), kajian membina model dengan nilai N yang berbeza pada peringkat ketiga. Untuk membina model dengan latensi yang sama untuk perbandingan yang saksama, kajian ini menyusun L set corak (NCB × N + NTB × 1) pada nilai kecil N.

Seperti yang ditunjukkan dalam Jadual 2, model dengan N = 4 dalam peringkat ketiga mencapai pertukaran terbaik antara prestasi dan kependaman. Kajian selanjutnya membina model yang lebih besar dengan mengembangkan L dalam mod (NCB × 4 + NTB × 1) × L pada peringkat ketiga. Seperti yang ditunjukkan dalam Jadual 2 (di bawah), prestasi model Asas (L = 4) dan Besar (L = 6) meningkat dengan ketara berbanding model kecil, mengesahkan yang dicadangkan (NCB × N + NTB × 1) × L model keberkesanan am.

Akhir sekali, untuk memberikan perbandingan yang saksama dengan rangkaian SOTA sedia ada, penyelidik mencadangkan tiga varian tipikal, iaitu Next-ViTS/B/L.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Hasil eksperimen

Tugas pengelasan pada ImageNet-1K

Berbanding dengan kaedah SOTA terkini seperti CNN, ViT dan rangkaian hibrid, Next-ViT mencapai prestasi yang lebih baik dalam ketepatan. pertukaran terbaik dicapai antara kependaman dan kependaman, dan keputusan ditunjukkan dalam Jadual 4 di bawah.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan


Tugas segmentasi semantik pada ADE20K

Kajian ini menggabungkan Next-ViT dengan CNN , ViT dan beberapa seni bina hibrid terkini dibandingkan untuk tugas pembahagian semantik. Seperti yang ditunjukkan dalam Jadual 5 di bawah, eksperimen yang meluas menunjukkan bahawa Next-ViT mempunyai potensi yang sangat baik dalam tugas pembahagian.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan


Pengesanan objek dan pembahagian contoh

Mengenai tugas pengesanan objek dan pembahagian contoh , Kajian ini membandingkan Next-ViT dengan model SOTA, dan keputusan ditunjukkan dalam Jadual 6 di bawah.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Eksperimen Ablasi dan Visualisasi

Untuk lebih memahami Next-ViT, penyelidik menilai klasifikasinya pada ImageNet-1K dan prestasi pada tugas hiliran untuk menganalisis peranan setiap reka bentuk utama, dan memvisualisasikan spektrum Fourier dan peta haba bagi ciri keluaran untuk menunjukkan kelebihan sedia ada Next-ViT.

Seperti yang ditunjukkan dalam Jadual 7 di bawah, NCB mencapai pertukaran kependaman/ketepatan terbaik pada ketiga-tiga tugasan.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Untuk blok NTB, kajian ini meneroka kesan kadar pengecutan r NTB ke atas prestasi keseluruhan Next-ViT Hasilnya ditunjukkan dalam Jadual 8 di bawah, Mengurangkan pengecutan r akan mengurangkan kependaman model.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Selain itu, model dengan r = 0.75 dan r = 0.5 mempunyai prestasi yang lebih baik daripada model dengan Transformer tulen (r = 1) . Ini menunjukkan bahawa menggabungkan isyarat berbilang frekuensi dengan cara yang sesuai akan meningkatkan keupayaan pembelajaran perwakilan model. Khususnya, model dengan r = 0.75 mencapai pertukaran latensi/ketepatan terbaik. Keputusan ini menggambarkan keberkesanan blok NTB. Kajian ini menganalisis lagi kesan lapisan normalisasi yang berbeza dan fungsi pengaktifan dalam Next-ViT. Seperti yang ditunjukkan dalam Jadual 9 di bawah, walaupun LN dan GELU membawa beberapa peningkatan prestasi, kependaman inferens pada TensorRT adalah jauh lebih tinggi. Sebaliknya, BN dan ReLU mencapai pertukaran kependaman/ketepatan terbaik pada keseluruhan tugas. Oleh itu, Next-ViT menggunakan BN dan ReLU secara seragam untuk penggunaan yang cekap dalam senario industri kehidupan sebenar.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Akhir sekali, kajian menggambarkan spektrum Fourier dan peta haba bagi ciri keluaran ResNet, Swin Transformer dan Next-ViT, seperti yang ditunjukkan dalam Rajah 5 di bawah (a) ditunjukkan. Taburan spektrum ResNet menunjukkan bahawa blok konvolusi cenderung untuk menangkap isyarat frekuensi tinggi dan mengalami kesukaran untuk memberi perhatian kepada isyarat frekuensi rendah ViT pandai menangkap isyarat frekuensi rendah dan mengabaikan isyarat frekuensi tinggi dan Next-ViT; isyarat berbilang frekuensi berkualiti tinggi pada masa yang sama, yang menunjukkan kelebihan keberkesanan NTB.

Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan

Selain itu, seperti yang ditunjukkan dalam Rajah 5(b), Next-ViT boleh menangkap maklumat tekstur yang lebih kaya dan maklumat tekstur yang lebih tepat daripada ResNet dan Swin . Maklumat global, yang menunjukkan bahawa Next-ViT mempunyai keupayaan pemodelan yang lebih kukuh.

Atas ialah kandungan terperinci Membuka kunci gabungan CNN dan Transformer yang betul, ByteDance mencadangkan Transformer visual generasi seterusnya yang berkesan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Bytedance Cutting melancarkan keahlian super SVIP: 499 yuan untuk langganan tahunan berterusan, menyediakan pelbagai fungsi AI Bytedance Cutting melancarkan keahlian super SVIP: 499 yuan untuk langganan tahunan berterusan, menyediakan pelbagai fungsi AI Jun 28, 2024 am 03:51 AM

Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Jun 10, 2024 am 11:08 AM

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Bolehkah penalaan halus benar-benar membolehkan LLM mempelajari perkara baharu: memperkenalkan pengetahuan baharu boleh menjadikan model menghasilkan lebih banyak halusinasi Bolehkah penalaan halus benar-benar membolehkan LLM mempelajari perkara baharu: memperkenalkan pengetahuan baharu boleh menjadikan model menghasilkan lebih banyak halusinasi Jun 11, 2024 pm 03:57 PM

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Jul 25, 2024 am 06:42 AM

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Yolov10: Penjelasan terperinci, penggunaan dan aplikasi semuanya di satu tempat! Yolov10: Penjelasan terperinci, penggunaan dan aplikasi semuanya di satu tempat! Jun 07, 2024 pm 12:05 PM

1. Pengenalan Sejak beberapa tahun kebelakangan ini, YOLO telah menjadi paradigma dominan dalam bidang pengesanan objek masa nyata kerana keseimbangannya yang berkesan antara kos pengiraan dan prestasi pengesanan. Penyelidik telah meneroka reka bentuk seni bina YOLO, matlamat pengoptimuman, strategi pengembangan data, dsb., dan telah mencapai kemajuan yang ketara. Pada masa yang sama, bergantung pada penindasan bukan maksimum (NMS) untuk pemprosesan pasca menghalang penggunaan YOLO dari hujung ke hujung dan memberi kesan buruk kepada kependaman inferens. Dalam YOLO, reka bentuk pelbagai komponen tidak mempunyai pemeriksaan yang komprehensif dan teliti, mengakibatkan lebihan pengiraan yang ketara dan mengehadkan keupayaan model. Ia menawarkan kecekapan suboptimum, dan potensi yang agak besar untuk peningkatan prestasi. Dalam kerja ini, matlamatnya adalah untuk meningkatkan lagi sempadan kecekapan prestasi YOLO daripada kedua-dua pasca pemprosesan dan seni bina model. sampai habis

Prestasi SOTA, kaedah AI ramalan pertalian protein-ligan pelbagai mod Xiamen, menggabungkan maklumat permukaan molekul buat kali pertama Prestasi SOTA, kaedah AI ramalan pertalian protein-ligan pelbagai mod Xiamen, menggabungkan maklumat permukaan molekul buat kali pertama Jul 17, 2024 pm 06:37 PM

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

Tiada data OpenAI diperlukan, sertai senarai model kod besar! UIUC mengeluarkan StarCoder-15B-Instruct Tiada data OpenAI diperlukan, sertai senarai model kod besar! UIUC mengeluarkan StarCoder-15B-Instruct Jun 13, 2024 pm 01:59 PM

Di barisan hadapan teknologi perisian, kumpulan UIUC Zhang Lingming, bersama penyelidik dari organisasi BigCode, baru-baru ini mengumumkan model kod besar StarCoder2-15B-Instruct. Pencapaian inovatif ini mencapai kejayaan ketara dalam tugas penjanaan kod, berjaya mengatasi CodeLlama-70B-Instruct dan mencapai bahagian atas senarai prestasi penjanaan kod. Keunikan StarCoder2-15B-Instruct terletak pada strategi penjajaran diri yang tulen Keseluruhan proses latihan adalah terbuka, telus, dan sepenuhnya autonomi dan boleh dikawal. Model ini menjana beribu-ribu arahan melalui StarCoder2-15B sebagai tindak balas kepada penalaan halus model asas StarCoder-15B tanpa bergantung pada anotasi manual yang mahal.

Era baharu pembangunan bahagian hadapan VSCode: 12 pembantu kod AI yang sangat disyorkan Era baharu pembangunan bahagian hadapan VSCode: 12 pembantu kod AI yang sangat disyorkan Jun 11, 2024 pm 07:47 PM

Dalam dunia pembangunan bahagian hadapan, VSCode telah menjadi alat pilihan untuk banyak pembangun dengan fungsi yang berkuasa dan ekosistem pemalam yang kaya. Dalam beberapa tahun kebelakangan ini, dengan perkembangan pesat teknologi kecerdasan buatan, pembantu kod AI pada VSCode telah muncul, meningkatkan kecekapan pengekodan pembangun. Pembantu kod AI pada VSCode telah muncul seperti cendawan selepas hujan, meningkatkan kecekapan pengekodan pembangun. Ia menggunakan teknologi kecerdasan buatan untuk menganalisis kod secara bijak dan menyediakan penyiapan kod yang tepat, pembetulan ralat automatik, semakan tatabahasa dan fungsi lain, yang mengurangkan kesilapan pembangun dan kerja manual yang membosankan semasa proses pengekodan. Hari ini, saya akan mengesyorkan 12 pembantu kod AI pembangunan bahagian hadapan VSCode untuk membantu anda dalam perjalanan pengaturcaraan anda.

See all articles