


Statistik akademik ML dan NLP 2021: Google menduduki tempat pertama, dan pakar pembelajaran pengukuhan Sergey Levine mendahului senarai
2021 adalah tahun yang sangat produktif untuk pemprosesan bahasa semula jadi (NLP) dan pembelajaran mesin (ML) Kini tiba masanya untuk mengira kertas dalam bidang NLP dan ML tahun lepas.
MAREK REI, seorang penyelidik dalam pembelajaran mesin dan pemprosesan bahasa semula jadi di University of Cambridge, meringkaskan dan menganalisis kertas kerja klasik pada tahun 2021 dan meringkaskan statistik penerbitan ML dan NLP pada tahun 2021. persidangan dan jurnal utama dalam industri perisikan telah dianalisis, termasuk ACL, EMNLP, NAACL, EACL, CoNLL, TACL, CL, NeurIPS, AAAI, ICLR, dan ICML.
Analisis kertas kerja dilengkapkan menggunakan satu siri alatan automatik, yang mungkin tidak sempurna dan mungkin mengandungi beberapa kelemahan dan ralat. Atas sebab tertentu, sesetengah pengarang mula menerbitkan kertas kerja mereka dalam bentuk yang dikelirukan untuk mengelakkan sebarang bentuk pertindihan kandungan atau pengekstrakan kandungan automatik, dan kertas kerja ini dikecualikan daripada proses analisis.
Sekarang mari kita lihat statistik MAREK REI.
Berdasarkan statistik persidangan akademik
Jumlah penyerahan kepada kebanyakan persidangan terus meningkat dan memecahkan rekod. ACL nampaknya terkecuali, AAAI hampir mendatar, manakala NeurIPS masih mengekalkan pertumbuhan yang stabil.
Berdasarkan statistik institusi
Institusi penyelidikan terkemuka dalam bilangan kertas kerja yang diterbitkan pada tahun 2021 ialah tidak dinafikan Google ; Microsoft berada di kedudukan kedua CMU, Universiti Stanford, Meta dan MIT berada di belakang, dan Universiti Tsinghua berada di kedudukan ketujuh. Microsoft, CAS, Amazon, Tencent, Cambridge, Washington, dan Alibaba menyerlah dengan bahagian kertas yang cukup besar di persidangan NLP, manakala organisasi terkemuka lain nampaknya menumpukan terutamanya pada bidang ML.
Daripada data 2012-2021, Google menerbitkan 2170 kertas kerja dan menduduki tempat pertama, mengatasi kertas kerja 2013 yang diterbitkan oleh Microsoft. CMU menerbitkan 1,881 kertas kerja, menduduki tempat ketiga.
Kebanyakan institusi terus meningkatkan jumlah penerbitan tahunan mereka. Bilangan kertas kerja yang diterbitkan oleh Google digunakan untuk berkembang secara linear, dan kini trend ini telah berkurangan, tetapi ia masih menerbitkan lebih banyak makalah daripada sebelumnya; syarikat yang menerbitkan lebih sedikit kertas Institusi yang merosot.
Oleh statistik pengarang
Seterusnya, mari kita lihat pada 2021 Penyelidik yang menerbitkan kertas kerja paling banyak setiap tahun. Sergey Levine (Penolong Profesor Kejuruteraan Elektrik dan Sains Komputer, Universiti California, Berkeley) menerbitkan 42 kertas kerja, menduduki tempat pertama Liu Tieyan (Microsoft), Zhou Jie (Universiti Tsinghua), Mohit Bansal (University of North Carolina di Chapel Hill), Graham Neubig (CMU) juga mempunyai kedudukan yang agak tinggi dalam bilangan kertas yang diterbitkan.
Melihat pada 2012-2021, makalah yang diterbitkan oleh Sergey Levine menduduki tempat pertama tahun lalu Ia melonjak ke tempat pertama; Yoshua Bengio (Montreal), Graham Neubig (CMU), Zhang Yue (Westlake University), Zhou Ming (Ketua Saintis Kerja Inovasi), Ting Liu (Institut Teknologi Harbin) dan lain-lain juga berada pada kedudukan yang agak tinggi dari segi bilangan kertas kerja yang mereka terbitkan .
Sergey Levine mencipta rekod baharu dengan margin yang besar Mohit Bansal juga mempunyai peningkatan yang ketara dalam bilangan kertas , 2021 Menerbitkan 31 kertas kerja pada tahun 2020, sama seperti jumlah kertas kerja Yoshua Bengio berkurangan pada tahun 2020, tetapi kini meningkat semula.
Statistik kertas kerja yang diterbitkan sebagai pengarang pertama
Penyelidik yang paling banyak menerbitkan kertas kerja biasanya merupakan posdoc dan penyelia. Sebaliknya, orang yang menerbitkan lebih banyak makalah sebagai pengarang pertama biasanya orang yang melakukan penyelidikan sebenar.
Ramit Sawhney (Pengarah Teknikal Tower Research Capital) menerbitkan 9 kertas kerja berpengaruh pada tahun 2021, Jason Wei (Google) dan Tiago Pimentel (pelajar PhD di Universiti Cambridge) menerbitkan masing-masing 6 kertas kerja berpengaruh adalah diterbitkan.
Dari pengedaran 2012-2021, Ivan Vulić (University of Cambridge) dan Zeyuan Allen-Zhu (Microsoft) kedua-duanya adalah pengarang pertama Diterbitkan 24 berpengaruh kertas kerja, terikat untuk tempat pertama; Yi Tay (Google) dan Li Jiwei (Shannon Technology) menduduki tempat kedua, masing-masing telah menerbitkan 23 dan 22 karya berpengaruh sebagai pengarang pertama di NeurIPS (University of Wisconsin-Madison). Kertas kerja NeurIPS sebagai pengarang pertama.
Bilangan penerbitan mengikut negara pada 2021, Amerika Syarikat Bilangan penerbitan adalah yang terbesar, dengan China dan UK kedudukan kedua dan ketiga masing-masing. Di Amerika Syarikat dan United Kingdom, NeurIPS menyumbang bahagian terbesar, manakala AAAI menyumbang bahagian terbesar di China.
Koordinat menegak dari atas ke bawah ialah 500, 1000, 1500, 2000, 2500 dan seterusnya
Hampir semua negara peringkat teratas terus meningkatkan bilangan penerbitan mereka dan mencatat rekod baharu pada 2021. Peningkatan itu adalah yang terbesar bagi Amerika Syarikat, seterusnya memperluaskan pendahulunya.
Di AS, Google, Microsoft dan CMU sekali lagi mendahului senarai dari segi bilangan penerbitan.
Di China, Universiti Tsinghua, Akademi Sains China dan Universiti Peking menerbitkan kertas kerja terbanyak pada tahun 2021.
Berdasarkan statistik korelasi topik
Melalui visualisasi, Organisasi ini berkumpul bersama terutamanya berdasarkan kedekatan geografi, dengan syarikat di tengah.
Kita juga boleh memvisualisasikan pengarangnya, tetapi visualisasi ini agak sukar untuk difahami.
Berdasarkan statistik kata kunci
Kami juga boleh melukis lukisan yang mengandungi khusus perkadaran kata kunci kertas dan jejak perubahan dalam perkadaran ini dari semasa ke semasa.
Perkataan "neural" nampaknya berada pada aliran menurun sedikit, walaupun anda masih boleh melihatnya dalam 80% kertas. Pada masa yang sama, perkadaran "berulang" dan "konvolusi" juga menurun, dan perkataan "pengubah" muncul dalam lebih daripada 30% kertas.
Jika anda melihat perkataan "musuh" sahaja, kita akan mendapati bahawa ia adalah perkara biasa dalam ICLR, dengan hampir separuh daripada kertas kerja menyebutnya. Perkadaran "musuh" dalam ICML dan NeurIPS nampaknya telah memuncak sebelum ini, manakala AAAI tidak.
Dalam beberapa tahun kebelakangan ini, istilah "transformer" telah menjadi sangat popular. Ia digunakan secara meluas dalam kertas kerja NLP, dengan lebih 50% daripada kertas kerja yang diterbitkan mengandunginya, dan popularitinya semakin meningkat di semua persidangan ML.
Atas ialah kandungan terperinci Statistik akademik ML dan NLP 2021: Google menduduki tempat pertama, dan pakar pembelajaran pengukuhan Sergey Levine mendahului senarai. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

DDREASE ialah alat untuk memulihkan data daripada fail atau peranti sekat seperti cakera keras, SSD, cakera RAM, CD, DVD dan peranti storan USB. Ia menyalin data dari satu peranti blok ke peranti lain, meninggalkan blok data yang rosak dan hanya memindahkan blok data yang baik. ddreasue ialah alat pemulihan yang berkuasa yang automatik sepenuhnya kerana ia tidak memerlukan sebarang gangguan semasa operasi pemulihan. Selain itu, terima kasih kepada fail peta ddasue, ia boleh dihentikan dan disambung semula pada bila-bila masa. Ciri-ciri utama lain DDREASE adalah seperti berikut: Ia tidak menimpa data yang dipulihkan tetapi mengisi jurang sekiranya pemulihan berulang. Walau bagaimanapun, ia boleh dipotong jika alat itu diarahkan untuk melakukannya secara eksplisit. Pulihkan data daripada berbilang fail atau blok kepada satu

Jika anda perlu tahu cara menggunakan penapisan dengan berbilang kriteria dalam Excel, tutorial berikut akan membimbing anda melalui langkah-langkah untuk memastikan anda boleh menapis dan mengisih data anda dengan berkesan. Fungsi penapisan Excel sangat berkuasa dan boleh membantu anda mengekstrak maklumat yang anda perlukan daripada sejumlah besar data. Fungsi ini boleh menapis data mengikut syarat yang anda tetapkan dan memaparkan hanya bahagian yang memenuhi syarat, menjadikan pengurusan data lebih cekap. Dengan menggunakan fungsi penapis, anda boleh mencari data sasaran dengan cepat, menjimatkan masa dalam mencari dan menyusun data. Fungsi ini bukan sahaja boleh digunakan pada senarai data ringkas, tetapi juga boleh ditapis berdasarkan berbilang syarat untuk membantu anda mencari maklumat yang anda perlukan dengan lebih tepat. Secara keseluruhan, fungsi penapisan Excel adalah sangat berguna

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Menghadapi ketinggalan, sambungan data mudah alih perlahan pada iPhone? Biasanya, kekuatan internet selular pada telefon anda bergantung pada beberapa faktor seperti rantau, jenis rangkaian selular, jenis perayauan, dsb. Terdapat beberapa perkara yang boleh anda lakukan untuk mendapatkan sambungan Internet selular yang lebih pantas dan boleh dipercayai. Betulkan 1 – Paksa Mulakan Semula iPhone Kadangkala, paksa memulakan semula peranti anda hanya menetapkan semula banyak perkara, termasuk sambungan selular. Langkah 1 – Hanya tekan kekunci naikkan kelantangan sekali dan lepaskan. Seterusnya, tekan kekunci Turun Kelantangan dan lepaskannya semula. Langkah 2 - Bahagian seterusnya proses adalah untuk menahan butang di sebelah kanan. Biarkan iPhone selesai dimulakan semula. Dayakan data selular dan semak kelajuan rangkaian. Semak semula Betulkan 2 – Tukar mod data Walaupun 5G menawarkan kelajuan rangkaian yang lebih baik, ia berfungsi lebih baik apabila isyarat lemah

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

SOTA baharu untuk keupayaan memahami dokumen multimodal! Pasukan Alibaba mPLUG mengeluarkan kerja sumber terbuka terkini mPLUG-DocOwl1.5, yang mencadangkan satu siri penyelesaian untuk menangani empat cabaran utama pengecaman teks imej resolusi tinggi, pemahaman struktur dokumen am, arahan mengikut dan pengenalan pengetahuan luaran. Tanpa berlengah lagi, mari kita lihat kesannya dahulu. Pengecaman satu klik dan penukaran carta dengan struktur kompleks ke dalam format Markdown: Carta gaya berbeza tersedia: Pengecaman dan kedudukan teks yang lebih terperinci juga boleh dikendalikan dengan mudah: Penjelasan terperinci tentang pemahaman dokumen juga boleh diberikan: Anda tahu, "Pemahaman Dokumen " pada masa ini Senario penting untuk pelaksanaan model bahasa yang besar. Terdapat banyak produk di pasaran untuk membantu pembacaan dokumen. Sesetengah daripada mereka menggunakan sistem OCR untuk pengecaman teks dan bekerjasama dengan LLM untuk pemprosesan teks.

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.
