Rumah > Peranti teknologi > AI > teks badan

Kedudukan 'kadar penukaran petikan tinggi' kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

WBOY
Lepaskan: 2023-04-11 21:01:01
ke hadapan
1707 orang telah melayarinya

Untuk menjelaskan isu ini, platform American Zeta Alpha mengira 100 kertas AI yang paling banyak disebut di dunia antara 2020 dan 2022, dan menghasilkan beberapa hasil yang sangat menarik.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Contohnya:

"Bintang popular" OpenAI menduduki tempat ke-9 dalam kalangan institusi yang paling banyak disebut kertas kerja.

Walau bagaimanapun, namanya tidak dapat ditemui sama sekali dalam senarai institusi yang mempunyai bilangan terbesar kertas terbitan.

Untuk contoh lain, Google Meta dan Microsoft dari industri sentiasa antara yang terbaik dalam pelbagai data Walau bagaimanapun, secara amnya, akademik tidak ketinggalan dalam industri.

Selain itu, pandangan sebelum ini bahawa "kuantiti dan kualiti hasil penyelidikan AI China mungkin melebihi Amerika Syarikat" nampaknya telah dipecahkan dalam laporan ini -

Lebih banyak data dan khusus , Mari kita lihat mereka satu persatu.

China berada di tempat kedua, dengan OpenAI dan DeepMind memenangi untuk kualiti

Sebelum analisis khusus, Zeta Alpha terlebih dahulu mengira kertas yang paling banyak disebut setiap tahun dari 2020 hingga 2022. Ia adalah:

2022:

1. Pangkalan Data Struktur Protein AlphaFold: Memperluaskan liputan struktur ruang jujukan protein dengan model ketepatan tinggi

Bilangan petikan: 1372
Topik: Menggunakan AlphaFold untuk meningkatkan liputan pangkalan data struktur protein

2 ColabFold: menjadikan lipatan protein boleh diakses oleh semua

Bilangan petikan: 1162

Institusi: Dilengkapkan melalui pelbagai kerjasama.
Topik: Model lipatan protein sumber terbuka dan cekap

3. Penjanaan Imej Bersyarat Hierarki dengan Laten CLIP

Bilangan petikan: 718

Institusi: OpenAI
Topik: DALL·E 2

4 A ConvNet untuk 2020s

Bilangan petikan: 690

Institusi: Meta dan UC Berkeley
Topik: Berjaya memodenkan CNN semasa Transformer boom

5. PaLM: Menskalakan Pemodelan Bahasa dengan Laluan

Bilangan petikan: 452

Institusi: Google
Topik: Model bahasa besar 540B Google, paradigma MLOps baharu, termasuk Proses pelaksanaannya

2021

1. Ramalan struktur protein yang sangat tepat dengan AlphaFold

Bilangan petikan: 8965

Institusi: DeepMind
Topik: AlphaFold, A kejayaan besar dalam ramalan struktur protein menggunakan pembelajaran mendalam

2. Swin Transformer: Hierarchical Vision Transformer menggunakan Shifted Windows

Bilangan petikan: 4810

Institusi: Microsoft
Topik: ViT Powerful Varian

3. Pembelajaran Model Visual Boleh Dipindah Dari Penyeliaan Bahasa Semulajadi

Bilangan petikan: 3204

Institusi: OpenAI
Topik: CLIP

4 Bahaya Burung kakak tua Stochastic: Bolehkah Model Bahasa Menjadi Terlalu Besar?

Bilangan petikan: 1266

Institusi: Washington, DC, Amerika Syarikat, Black dalam AI, The Aether
Topik: Kertas kedudukan penting mengenai pertumbuhan Bersikap kritis terhadap trend model bahasa, menekankan batasan dan bahayanya

5. Sifat Muncul dalam Transformers Penglihatan Sendiri

Bilangan petikan: 1219

Institusi: Meta
Topik: DINO, mendedahkan cara penyeliaan kendiri imej membawa kepada beberapa jenis pembahagian proto-objek dalam Transformers

2020:

1 Satu Imej Bernilai 16x16 Perkataan: Transformer untuk Pengecaman Imej di Skala

Bilangan petikan: 11914

Institusi: Google
Topik: Kerja pertama untuk menunjukkan prestasi Transformer biasa dalam bidang penglihatan komputer

2 Few-Shot Learners

Bilangan petikan: 8070

Institusi: OpenAI
Topik: GPT-3

3 YOLOv4: Kelajuan Optimum dan Ketepatan Pengesanan Objek

Bilangan petikan: 8014

Institusi: "Academia Sinica", Taiwan, China
Topik: YOLOv4

4. Meneroka Had Pembelajaran Pemindahan dengan Teks-ke-Teks Bersepadu Transformer

Bilangan petikan: 5906

Organisasi: Google
Topik: Kajian yang teliti tentang pembelajaran pemindahan Transformer menghasilkan T5

5 yang terkenal pendekatan kepada Pembelajaran Terselia sendiri

Bilangan petikan: 2873

Institusi: DeepMind dan Imperial College
Topik: Menunjukkan bahawa negatif tidak diperlukan untuk pembelajaran perwakilan

Saya rasa anda boleh temui banyak daripadanya "Familiar Faces".

Seterusnya, Zeta Alpha menganalisis maklumat di sebalik kertas yang dipetik tinggi dalam tempoh tiga tahun yang lalu.

Yang pertama ialah negara (rantau) dengan "100 kertas kerja paling banyak disebut setiap tahun".

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Dapat dilihat bahawa Amerika Syarikat adalah yang paling kuat, dan jurang antara China dan China agak ketara.

Oleh itu, Zeta Alpha juga percaya bahawa kenyataan sebelum ini bahawa "penyelidikan China dalam AI mungkin melebihi Amerika Syarikat" adalah tidak benar sekurang-kurangnya berdasarkan data ini.

Selain itu, kedudukan Singapura dan Australia juga mengejutkan, masing-masing berada di tempat kelima dan keenam.

"Untuk menilai penguasaan Amerika Syarikat dengan betul," Zeta Alpha menukar kaedah statistik dan mengira peratusan 100 petikan teratas.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Sudah tentu, Amerika Syarikat masih berada di kedudukan pertama, tetapi kita dapat melihat bahagiannya telah menurun dalam tempoh tiga tahun yang lalu.

UK ialah pesaing terbesar di luar China dan Amerika Syarikat, tetapi prestasi cemerlang UK pada tahun 2022 sebenarnya disumbangkan terutamanya oleh DeepMind (mencatat 69%).

Berikut ialah kedudukan 100 individu teratas dengan petikan terbanyak mengikut organisasi atau institusi.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Tidak menghairankan, Google dan Meta Microsoft menduduki tempat tiga teratas, diikuti oleh UC Berkeley, DeepMind dan Stanford.

OpenAI juga mencapai kedudukan yang cukup baik, kesembilan. Yang kesepuluh ialah MIT dan yang kesebelas ialah Universiti Tsinghua.

Walaupun tiga peserta terbaik semuanya dari industri, jika kita hanya membahagikannya mengikut jenis institusi, prestasi akademik dan pada asasnya adalah sama.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Kemudian, kedudukan jumlah bilangan kertas kerja yang diterbitkan oleh setiap organisasi atau institusi dalam tempoh tiga tahun yang lalu.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Bos masih Google. Tempat kedua lebih menarik perhatian iaitu Universiti Tsinghua, diikuti oleh Microsoft, CMU, MIT, Stanford, UC Berkeley, Universiti Peking (kelapan), Meta...

Nampak yang teratas sepuluh bergabung dengan akademia Institusi atau organisasi menduduki kawasan yang luas di negara ini.

Dan kami mencari untuk masa yang lama, tetapi kami tidak melihat nama OpenAI dan DeepMind -

Jelas sekali mereka menerbitkan bilangan kertas yang lebih kecil dan menang terutamanya dari segi kualiti.

Untuk mengesahkan tekaan ini, Zeta Alpha turut membuat penarafan kadar penukaran kertas yang diberi sebutan tinggi.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Seperti yang dijangkakan, OpenAI memenangi mahkota dan DeepMind menduduki tempat ketiga.

Sudah tentu, Meta juga bagus Keempat, LeCun pun keluar untuk memberikan kenyataan peribadi:

Kami di Meta memang lebih mementingkan kualiti berbanding kuantiti.

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Sebaliknya, Google, yang mempunyai banyak petikan tetapi lebih banyak penerbitan, hanya menduduki tempat kesembilan, hampir tidak keluar daripada 10 teratas.

Selain itu, tempat kedua juga menjadi kemuncak - ia adalah Megvii.

Serta SenseTime domestik, mereka juga berada dalam senarai.

Dilampirkan senarai lengkap 100 petikan Teratas pada tahun 2022

Kepopularan ChatGPT telah benar-benar menggiatkan semula industri AI Ke arah manakah penyelidikan termaju terbaharu? Kita juga perlu lebih teliti.

Untuk tujuan ini, Zeta Alpha juga telah memberikan senarai semua kertas AI yang disebut dalam 100 teratas pada tahun 2022, yang mungkin memberi inspirasi kepada semua orang.

1-30:

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

31-60:

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

61-90:

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

91-100:

Kedudukan kadar penukaran petikan tinggi kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan

Jadi, itu sahaja kandungan laporan Zeta Alpha.

Teks asal boleh dicop:​​https://www.php.cn/link/ea20aed6df7caa746052d227d194a395​

Atas ialah kandungan terperinci Kedudukan 'kadar penukaran petikan tinggi' kertas AI dikeluarkan: OpenAI di tempat pertama, Megvii di tempat kedua dan Google di tempat kesembilan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan