Rumah > Peranti teknologi > AI > Ulang Tahun ke-6 Transformer: ​​Malah NeurIPS Oral tidak diperoleh pada masa itu, tetapi 8 pengarang telah mengasaskan beberapa unicorn AI

Ulang Tahun ke-6 Transformer: ​​Malah NeurIPS Oral tidak diperoleh pada masa itu, tetapi 8 pengarang telah mengasaskan beberapa unicorn AI

王林
Lepaskan: 2023-06-14 13:18:01
ke hadapan
1452 orang telah melayarinya

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Dari ChatGPT kepada teknologi lukisan AI, gelombang penemuan terbaru dalam bidang kecerdasan buatan mungkin berkat Transformer.

Hari ini adalah ulang tahun keenam penyerahan kertas transformer yang terkenal.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Pautan kertas: https://arxiv.org/abs/1706.03762

Enam tahun lalu, sebuah kertas dengan nama yang agak dibesar-besarkan telah dimuat naik ke platform kertas pracetak arXiv Ayat "xx is All You Need" berulang kali diulang oleh pembangun dalam medan AI. , malah telah menjadi trend dalam tajuk kertas, dan Transformer tidak lagi bermaksud Transformers, ia kini mewakili teknologi paling canggih dalam bidang AI.

Enam tahun kemudian, melihat kembali kertas ini, kita boleh menemui banyak aspek yang menarik atau kurang diketahui, seperti yang diringkaskan oleh saintis NVIDIA AI Jim Fan.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

"mekanisme perhatian" bukanlah seperti yang dicadangkan oleh pengarang Transformer

Model Transformer meninggalkan tradisi Unit CNN dan RNN, keseluruhan struktur rangkaian sepenuhnya terdiri daripada mekanisme perhatian.

Walaupun nama kertas Transformer ialah "Attention is All You Need", dan kami terus memuji mekanisme perhatian kerananya, sila ambil perhatian fakta menarik: ia bukan Transformer's penyelidik Penyelidik mencipta perhatian, tetapi mereka menolak mekanisme ini secara melampau.

Mekanisme Perhatian telah dicadangkan pada 2014 oleh pasukan yang diketuai oleh perintis pembelajaran mendalam Yoshua Bengio:

"Penterjemahan Mesin Neural oleh Bersama Belajar Menjajarkan dan Terjemah", tajuknya agak mudah.

Dalam kertas kerja ICLR 2015 ini, Bengio et al mencadangkan gabungan RNN + "vektor konteks" (iaitu perhatian). Walaupun ia adalah salah satu pencapaian terbesar dalam bidang NLP, ia adalah kurang terkenal daripada transformer kertas kerja pasukan Bengio telah disebut 29,000 kali setakat ini, dan Transformer mempunyai 77,000 kali.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Mekanisme perhatian AI secara semula jadi dimodelkan mengikut perhatian visual manusia. Otak manusia mempunyai keupayaan semula jadi: apabila kita melihat gambar, kita mula-mula mengimbas gambar dengan cepat dan kemudian fokus pada kawasan sasaran yang perlu difokuskan.

Jika anda tidak melepaskan sebarang maklumat tempatan, anda pasti akan melakukan banyak kerja sia-sia, yang tidak kondusif untuk terus hidup. Begitu juga, memperkenalkan mekanisme serupa ke dalam rangkaian pembelajaran mendalam boleh memudahkan model dan mempercepatkan pengiraan. Pada dasarnya, Perhatian adalah untuk menapis sejumlah kecil maklumat penting daripada sejumlah besar maklumat, dan fokus pada maklumat penting ini, sambil mengabaikan kebanyakan maklumat yang tidak penting.

Dalam beberapa tahun kebelakangan ini, mekanisme perhatian telah digunakan secara meluas dalam pelbagai bidang pembelajaran mendalam, seperti untuk menangkap medan penerimaan pada imej ke arah penglihatan komputer, atau untuk mengesan token utama dalam NLP atau ciri. Sebilangan besar eksperimen telah membuktikan bahawa model dengan mekanisme perhatian telah mencapai peningkatan prestasi yang ketara dalam tugasan seperti pengelasan imej, pembahagian, penjejakan dan peningkatan, serta pengecaman bahasa semula jadi, pemahaman, menjawab soalan dan terjemahan.

Model Transformer yang memperkenalkan mekanisme perhatian boleh dianggap sebagai komputer jujukan tujuan umum Mekanisme perhatian membenarkan model untuk menetapkan tugasan yang berbeza berdasarkan korelasi kedudukan yang berbeza dalam jujukan semasa memproses jujukan input. . Berat perhatian membolehkan Transformer menangkap kebergantungan jarak jauh dan maklumat kontekstual, dengan itu meningkatkan kesan pemprosesan jujukan.

Tetapi pada masa itu, Transformer mahupun kertas perhatian asal tidak bercakap tentang komputer jujukan universal. Sebaliknya, pengarang melihatnya sebagai mekanisme untuk menyelesaikan masalah yang sempit dan khusus—terjemahan mesin. Oleh itu, pada masa hadapan, apabila kita mengesan asal usul AGI, kita mungkin dapat mengesannya kembali kepada Terjemahan Google yang "rendah hati".

Walaupun ia diterima oleh NeurIPS 2017, ia tidak mendapat Oral

Transformer Walaupun kertas kerja ini sangat berpengaruh sekarang, ia bukanlah AI teratas dalam dunia pada tahun itu Pada persidangan NeurIPS 2017, saya tidak mendapat Lisan, apatah lagi anugerah. Persidangan menerima sejumlah 3240 kertas kerja pada tahun itu, di mana 678 telah dipilih sebagai kertas persidangan The Transformer adalah salah satu kertas kerja yang diterima. . Tesis, anugerah Ujian masa, Transformer tidak layak untuk anugerah itu.

Walaupun terlepas anugerah kertas NeurIPS 2017, pengaruh Transformer jelas kepada semua.

Jim Fan mengulas: Bukan salah hakim bahawa sukar bagi orang ramai untuk menyedari kepentingan kajian yang berpengaruh sebelum ia menjadi berpengaruh. Walau bagaimanapun, terdapat juga kertas kerja yang cukup bertuah untuk ditemui dengan segera Contohnya, ResNet yang dicadangkan oleh He Yuming dan lain-lain memenangi kertas kerja terbaik CVPR 2016. Penyelidikan ini layak dan telah diiktiraf dengan betul oleh persidangan AI teratas. Tetapi pada masa ini pada tahun 2017, penyelidik yang sangat bijak mungkin tidak dapat meramalkan perubahan yang dibawa oleh LLM sekarang Sama seperti pada tahun 1980-an, beberapa orang dapat meramalkan tsunami yang disebabkan oleh pembelajaran mendalam sejak 2012.

Lapan pengarang, masing-masing mempunyai kehidupan yang indah

Terdapat 8 pengarang kertas ini pada masa itu. Mereka berasal dari Google dan Universiti Toronto , kebanyakan mereka Pengarang kertas kerja semuanya telah meninggalkan institusi asal mereka.

Pada 26 April 2022, sebuah syarikat bernama "Adept" telah ditubuhkan secara rasmi. Terdapat 9 pengasas bersama, termasuk Ashish Vaswani, dua daripada pengarang karya Transformer Parmar.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Ashish Vaswani Memperoleh PhD dari University of Southern California, di mana beliau belajar di bawah bimbingan sarjana Cina David Chiang dan Liang Huang Beliau terutamanya mempelajari aplikasi awal pembelajaran mendalam moden dalam pemodelan bahasa. Pada 2016, beliau menyertai Google Brain dan mengetuai penyelidikan Transformer sebelum meninggalkan Google pada 2021.

Niki Parmar Tamat pengajian dari University of Southern California dengan ijazah sarjana dan menyertai Google pada 2016. Semasa di sana, dia membangunkan beberapa model Soal Jawab dan persamaan teks yang berjaya untuk carian dan iklan Google. Dia mengetuai kerja awal memperluaskan model Transformer ke dalam bidang seperti penjanaan imej, penglihatan komputer dan banyak lagi. Pada 2021, dia juga meninggalkan Google.

Selepas pergi, kedua-dua mereka mengasaskan Adept dan masing-masing berkhidmat sebagai ketua saintis (Ashish Vaswani) dan ketua pegawai teknologi (Niki Parmar). Visi Adept adalah untuk mencipta AI yang dipanggil "rakan sepasukan kecerdasan buatan" yang dilatih untuk menggunakan pelbagai alat perisian dan API yang berbeza.

Pada Mac 2023, Adept mengumumkan penyelesaian pembiayaan Siri B AS$350 juta, penilaian syarikat melebihi AS$1 bilion, menjadikannya unicorn. Walau bagaimanapun, pada masa Adept mengumpul dana secara terbuka, Niki Parmar dan Ashish Vaswani telah meninggalkan Adept dan mengasaskan syarikat AI baharu mereka sendiri. Bagaimanapun, syarikat baharu ini masih sulit dan kami tidak dapat mendapatkan maklumat terperinci tentang syarikat tersebut.

Pengarang kertas lain Noam Shazeer ialah salah seorang pekerja awal Google yang paling penting. Beliau menyertai Google pada penghujung tahun 2000 sehingga beliau akhirnya meninggalkan dunia pada tahun 2021, dan kemudian menjadi Ketua Pegawai Eksekutif syarikat permulaan yang dipanggil "Character.AI".

Selain Noam Shazeer, pengasas Character.AI ialah Daniel De Freitas, kedua-duanya daripada pasukan LaMDA Google. Sebelum ini, mereka membina LaMDA, model bahasa yang menyokong program perbualan di Google.

Pada bulan Mac tahun ini, Character.AI mengumumkan penyelesaian pembiayaan AS$150 juta dan penilaiannya mencecah AS$1 bilion Ia adalah salah satu daripada beberapa syarikat permulaan yang berpotensi untuk bersaing dengan OpenAI, organisasi yang memiliki ChatGPT , juga merupakan syarikat yang jarang berkembang menjadi unicorn dalam masa 16 bulan sahaja. Aplikasinya, Character.AI, ialah chatbot model bahasa saraf yang boleh menjana respons teks seperti manusia dan terlibat dalam perbualan kontekstual.

Character.AI telah dikeluarkan di Apple App Store dan Google Play Store pada 23 Mei 2023, dan telah dimuat turun lebih daripada 1.7 juta kali pada minggu pertamanya. Pada Mei 2023, perkhidmatan itu menambah langganan berbayar $9.99 sebulan yang dipanggil c.ai+, yang membenarkan akses sembang keutamaan pengguna, masa respons yang lebih pantas dan akses awal kepada ciri baharu, antara faedah lain.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Aidan N. Gomez meninggalkan Google seawal 2019, kemudian bekerja sebagai penyelidik di FOR.ai, dan kini pengasas bersama dan Ketua Pegawai Eksekutif Cohere.

Cohere ialah permulaan AI generatif yang diasaskan pada 2019. Perniagaan terasnya termasuk menyediakan model NLP dan membantu perusahaan meningkatkan interaksi manusia-komputer. Tiga pengasas ialah Ivan Zhang, Nick Frosst dan Aidan Gomez, antaranya Gomez dan Frosst adalah bekas ahli pasukan Google Brain. Pada November 2021, Google Cloud mengumumkan bahawa mereka akan bekerjasama dengan Cohere, dengan Google Cloud menggunakan infrastruktur teguhnya untuk menggerakkan platform Cohere dan Cohere menggunakan TPU Cloud untuk membangun dan menggunakan produknya.

Perlu diingat bahawa Cohere baru sahaja menerima AS$270 juta dalam pembiayaan Siri C, menjadi unicorn dengan permodalan pasaran sebanyak AS$2.2 bilion.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Łukasz KaiserMeninggalkan Google pada 2021 untuk bekerja di Google I telah bekerja selama 7 tahun 9 bulan, dan kini saya seorang penyelidik di OpenAI. Semasa bekerja sebagai saintis penyelidikan di Google, beliau mengambil bahagian dalam reka bentuk model saraf SOTA untuk penterjemahan mesin, penghuraian dan tugasan algoritma dan penjanaan yang lain. Beliau ialah pengarang bersama sistem TensorFlow dan perpustakaan Tensor2Tensor.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Jakob Uszkoreit meninggalkan Google pada 2021 untuk bekerja di Google It bertahan selama 13 tahun, dan kemudian menyertai Inceptive sebagai pengasas bersama. Inceptive ialah syarikat farmaseutikal AI khusus untuk menggunakan pembelajaran mendalam untuk mereka bentuk ubat RNA.

Semasa bekerja di Google, Jakob Uszkoreit mengambil bahagian dalam membentuk pasukan pemahaman bahasa Google Assistant, dan juga bekerja pada Terjemahan Google pada masa awal.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Illia Polosukhin meninggalkan Google pada 2017 dan kini NEAR Co -pengasas dan CTO .AI (sebuah syarikat teknologi asas blockchain).

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Satu-satunya yang masih ada di Google ialah Llion Jones, ini tahun Ini adalah tahun ke-9 beliau di Google.

Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽

Kini, 6 tahun telah berlalu sejak penerbitan karya "Attention Is All You Need", dan yang asal pengarang telah Pilih untuk pergi, ada yang memilih untuk kekal di Google, walau apa pun, pengaruh Transformer berterusan.

Atas ialah kandungan terperinci Ulang Tahun ke-6 Transformer: ​​Malah NeurIPS Oral tidak diperoleh pada masa itu, tetapi 8 pengarang telah mengasaskan beberapa unicorn AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan