


Melampaui Hadiah Nobel? 'ChatGPT' dalam dunia biologi telah mencapai sintesis protein baharu dari awal buat kali pertama, dan ia telah diterbitkan dalam sub-jurnal Nature!
Aplikasi kecerdasan buatan telah mempercepatkan penyelidikan mengenai kejuruteraan protein.
Baru-baru ini, sebuah syarikat permulaan yang masih baru di Berkeley, California telah mencapai kemajuan yang menakjubkan sekali lagi.
Para saintis menggunakan Progen, model bahasa pembelajaran mendalam kejuruteraan protein yang serupa dengan ChatGPT, untuk mencapai ramalan AI bagi sintesis protein buat kali pertama.
Bukan sahaja protein ini berbeza sama sekali daripada yang diketahui, persamaan paling rendah adalah genap sahaja 31.4%, tetapi berkesan seperti protein semulajadi.
Kini, karya ini telah diterbitkan secara rasmi dalam sub-jurnal Nature.
Alamat kertas: https://www.nature.com/articles/s41587-022-01618-2
Percubaan ini juga menunjukkan bahawa walaupun pemprosesan bahasa semula jadi dibangunkan untuk membaca dan menulis teks bahasa, ia juga boleh mempelajari beberapa prinsip asas biologi.
Teknologi yang setanding dengan Hadiah Nobel
Sebagai tindak balas, penyelidik berkata bahawa teknologi baharu ini mungkin menjadi lebih berkuasa daripada evolusi terarah (teknologi reka bentuk protein yang memenangi Hadiah Nobel ) lebih berkuasa.
"Ia akan menggiatkan semula bidang kejuruteraan protein yang berusia 50 tahun dengan mempercepatkan pembangunan protein baharu yang boleh digunakan dalam hampir semua perkara daripada terapeutik kepada plastik yang merendahkan maruah."
Syarikat itu dipanggil Profluent Ia diasaskan oleh bekas ketua penyelidikan AI Salesforce dan telah menerima AS$9 juta sebagai permulaan-. membiayai Yu menubuhkan makmal basah bersepadu dan merekrut saintis dan ahli biologi pembelajaran mesin.
Pada masa lalu, sangat susah payah untuk melombong protein secara semula jadi atau menyesuaikan protein kepada fungsi yang diperlukan. Matlamat Profulent adalah untuk menjadikan proses ini mudah.
Mereka melakukannya.
Pengasas dan Ketua Pegawai Eksekutif ternama Ali Madani
Madani berkata dalam temu bual bahawa Profulent telah mereka bentuk beberapa keluarga protein. Protein ini berfungsi seperti protein contoh dan oleh itu merupakan enzim yang sangat aktif.
Tugas ini sangat sukar dan dilakukan secara sifar, yang bermaksud bahawa berbilang pusingan pengoptimuman tidak dilakukan, malah sebarang data daripada makmal basah tidak disediakan di semua.
Protein akhirnya direka bentuk ialah protein yang sangat aktif yang biasanya mengambil masa ratusan tahun untuk berkembang.
Sebagai sejenis rangkaian neural dalam, model bahasa bersyarat ialah bukan sahaja dari segi semantik dan tatabahasa yang betul, teks bahasa semula jadi yang novel dan pelbagai boleh dijana, dan teg kawalan input boleh dimanfaatkan untuk membimbing gaya, topik dan banyak lagi.
Begitu juga, penyelidik telah membangunkan protagonis hari ini—ProGen, model bahasa protein bersyarat dengan 1.2 bilion parameter.
Khususnya, ProGen berdasarkan seni bina Transformer mensimulasikan interaksi sisa melalui mekanisme perhatian kendiri, dan boleh menjana jujukan protein buatan yang berbeza merentas keluarga protein berdasarkan tag kawalan input.
Menghasilkan protein buatan menggunakan model bahasa bersyarat
Untuk mencipta model ini , para penyelidik memberi makan urutan asid amino 280 juta protein yang berbeza dan membiarkan mereka "mencerna" selama beberapa minggu.
Kemudian mereka memperhalusi model menggunakan 56,000 jujukan daripada lima keluarga lisozim dan maklumat tentang protein ini.
Algoritma Progen adalah serupa dengan GPT3.5, model di sebalik ChatGPT Ia mempelajari peraturan susunan asid amino dalam protein dan hubungannya dengan struktur dan fungsi protein.
Tidak lama kemudian, model itu menghasilkan sejuta jujukan.
Berdasarkan tahap persamaan dengan jujukan protein semula jadi dan keaslian "sintaks" dan "semantik" asid amino, para penyelidik memilih 100 untuk ujian.
Daripada jumlah ini, 66 menghasilkan tindak balas kimia yang serupa dengan protein semulajadi yang memusnahkan bakteria dalam putih telur dan air liur.
Dengan kata lain, protein baharu yang dihasilkan oleh AI ini juga boleh membunuh bakteria.
Protein tiruan yang dihasilkan adalah pelbagai dan dinyatakan dengan baik dalam sistem eksperimen
Melangkah lebih jauh, para penyelidik memilih lima protein yang bertindak balas paling kuat dan menambahkannya kepada sampel E. coli.
Antaranya, terdapat dua enzim tiruan yang boleh memecahkan dinding sel bakteria.
Dengan membandingkan dengan lisozim putih telur ayam (HEWL), boleh didapati bahawa aktiviti mereka adalah setanding dengan HEWL.
Para penyelidik kemudian menggunakan X-ray untuk pengimejan.
Walaupun urutan asid amino enzim tiruan adalah sehingga 30% berbeza daripada protein sedia ada, dan hanya 18% yang sama di antara mereka, bentuknya adalah serupa dengan Protein tidak begitu berbeza dan mempunyai fungsi yang setanding.
Kebolehgunaan pemodelan bahasa bersyarat kepada sistem protein lain
Selain itu, untuk protein semula jadi yang sangat berkembang, ia mungkin hanya memerlukan mutasi kecil untuk membuatnya berhenti berfungsi.
Tetapi dalam satu lagi pusingan saringan, para penyelidik mendapati bahawa antara enzim yang dihasilkan oleh AI, walaupun hanya 31.4% daripada jujukan adalah sama dengan protein yang diketahui, mereka masih menunjukkan aktiviti yang cukup besar dan Struktur yang serupa.
Reka bentuk protein, memasuki era baharu
Seperti yang anda lihat, cara ProGen berfungsi ialah sangat serupa dengan ChatGPT serupa.
ChatGPT boleh mengambil MBA dan peperiksaan bar dan menulis kertas kolej dengan mengkaji data besar-besaran.
Dan ProGen belajar cara menjana protein baharu dengan mempelajari sintaks cara asid amino digabungkan ke dalam 280 juta protein sedia ada.
Dalam temu bual itu, Madani berkata, “Sama seperti ChatGPT mempelajari bahasa manusia seperti bahasa Inggeris, kami sedang mempelajari bahasa biologi dan protein . "
"Protein yang direka bentuk secara buatan berfungsi jauh lebih baik daripada protein yang diilhamkan oleh proses evolusi," kata James, pengarang bersama kertas kerja dan profesor sains biokejuruteraan dan terapeutik di UCSF School of Farmasi kata Fraser.
"Model bahasa mempelajari aspek evolusi, tetapi ia berbeza daripada proses evolusi biasa. Kini kami mempunyai keupayaan untuk melaraskan penghasilan ciri ini untuk mendapatkan kesan khusus. Contohnya , biarkan a Sesetengah enzim adalah sangat stabil haba, lebih suka persekitaran berasid, atau tidak berinteraksi dengan protein lain Pada tahun 2020, Salesforce Research membangunkan ProGen. Ia berdasarkan pengaturcaraan bahasa semula jadi dan pada asalnya digunakan untuk menghasilkan teks bahasa Inggeris.
Daripada kerja terdahulu, penyelidik mengetahui bahawa sistem AI boleh mengajar diri mereka sendiri makna tatabahasa dan perkataan, serta peraturan asas lain yang menjadikan penulisan teratur.
“Apabila anda melatih model berasaskan jujukan dengan jumlah data yang besar, mereka sangat berkuasa dalam mempelajari struktur dan peraturan,” Nikhil, pengarah penyelidikan kecerdasan buatan di Salesforce Research dan pengarang kanan daripada kertas kerja Dr. Naik berkata, "Mereka akan memahami perkataan mana yang boleh muncul bersama-sama dan bagaimana untuk menggabungkannya." dan menjadikannya awam Dikeluarkan, semua orang boleh belajar atas dasar kami 》
Lisozim sebagai protein adalah sangat kecil, dengan sehingga kira-kira 300 asid amino.
Tetapi dengan 20 kemungkinan asid amino, terdapat 20^300 kemungkinan gabungan.
Ini adalah lebih daripada semua manusia dari semua zaman berkali ganda bilangan butir pasir di bumi kali ganda bilangan atom di alam semesta.
Memandangkan kemungkinan yang hampir tidak terhingga, adalah benar-benar luar biasa bahawa Progen dapat mereka bentuk enzim yang berkesan dengan begitu mudah. "Jana dari awal terus dari kotak," kata Dr. Keupayaan protein berfungsi menunjukkan bahawa kita sedang memasuki era baru reka bentuk protein. "Ini adalah alat baharu serba boleh yang tersedia untuk semua jurutera protein, dan kami tidak sabar untuk melihatnya digunakan dalam rawatan." pada masa yang sama, penyelidik terus menambah baik ProGen dan cuba menerobos lebih banyak batasan dan cabaran.
Salah satunya ialah ia sangat bergantung pada data.
"Kami telah meneroka penambahbaikan reka bentuk jujukan dengan menambah maklumat berasaskan struktur," kata Naik "Kami juga melihat apabila anda tidak mempunyai banyak maklumat tentang keluarga protein tertentu atau Bagaimana untuk meningkatkan keupayaan penjanaan model apabila menggunakan data di lapangan 》
Perlu diingat bahawa beberapa syarikat pemula juga mencuba teknologi yang serupa, seperti Cradle dan Inkubator Bioteknologi Hasilkan Bioperubatan, tetapi kajian ini belum lagi dikaji semula.
Atas ialah kandungan terperinci Melampaui Hadiah Nobel? 'ChatGPT' dalam dunia biologi telah mencapai sintesis protein baharu dari awal buat kali pertama, dan ia telah diterbitkan dalam sub-jurnal Nature!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Hari ini saya ingin berkongsi kerja penyelidikan terbaru dari University of Connecticut yang mencadangkan kaedah untuk menyelaraskan data siri masa dengan model pemprosesan bahasa semula jadi (NLP) yang besar pada ruang terpendam untuk meningkatkan prestasi peramalan siri masa. Kunci kepada kaedah ini ialah menggunakan petunjuk spatial terpendam (prompt) untuk meningkatkan ketepatan ramalan siri masa. Tajuk kertas: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting Alamat muat turun: https://arxiv.org/pdf/2403.05798v1.pdf 1. Model latar belakang masalah besar

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi
