超越諾獎?生物界「ChatGPT」首次實現從零合成全新蛋白,登Nature子刊!
人工智慧的應用,已經大大加速了蛋白質工程的研究。
最近,加州柏克萊的一家新出茅廬的新創公司再次取得了驚人的進展。
科學家採用類似ChatGPT的蛋白質工程深度學習語言模型-Progen,首次實現了AI預測蛋白質的合成。
這些蛋白質不僅與已知的完全不同,相似度最低的甚至只有31.4 %,但和天然蛋白一樣有效。
現在,這項工作已經正式發表於Nature子刊。
論文網址:https://www.nature.com/articles/s41587-022-01618-2
這個實驗也表明,自然語言處理雖然是為讀寫語言文本而開發的,但它也可以學習生物學的一些基本原理。
比肩諾獎的技術
對此,研究人員表示,這項新技術可能會變得比定向進化(獲得諾貝爾獎的蛋白質設計技術)更加強大。
「它將透過加快開發可用於從治療劑到降解塑膠等幾乎所有用途的新蛋白質,為有50年歷史的蛋白質工程領域注入活力。」
這家公司名叫Profluent,由前Salesforce AI研究負責人創立,已獲得900萬美元的啟動資金,用於建立一個整合的濕實驗室,並招募機器學習科學家和生物學家。
以往,在自然界中挖掘蛋白質,或調整蛋白質到所需功能,都十分費力。 Profulent的目標是,讓這個過程變得毫不費力。
他們做到了。
Profluent創辦人兼CEO Ali Madani
Madani在訪談中表示,Profulent已經設計了多個家族的蛋白質。這些蛋白質的功能與樣本蛋白(exemplar proteins)一樣,因此是具有高活性的酵素。
這項任務非常困難,是以zero-shot的方式完成的,這意味著並沒有進行多輪優化,甚至根本不提供濕實驗室的任何數據。
而最終設計出來的蛋白質,是通常需要數百年才能進化出來的高活性蛋白質。
基於語言模型的ProGen
作為深度神經網路的一種,條件語言模型不僅可以產生語義和語法正確且新穎多樣的自然語言文本,而且還可以利用輸入控制標籤來指導風格、主題等等。
類似的,研究人員開發了今天的主角-ProGen,一個12億個參數的條件蛋白質語言模型。
具體來說,基於Transformer架構的ProGen透過自註意機制來模擬殘基的相互作用,並且可以根據輸入控制標籤產生不同的跨蛋白質家族的人工蛋白質序列。
用條件語言模型產生人工蛋白質
##為了創建這個模型,研究人員餵食了2.8億種不同蛋白質的胺基酸序列,並讓它「消化」了幾週的時間。
接著,他們又用五個溶菌酶家族的56,000個序列以及關於這些蛋白質的信息,對模型進行了微調。
Progen的演算法與ChatGPT背後的模型GPT3.5類似,它學習到了蛋白質中氨基酸排序的規律,以及它們與蛋白質結構和功能的關係。
很快,模型就產生了一百萬個序列。
根據與天然蛋白質序列的相似程度,以及胺基酸「語法」和「語意」的自然程度,研究人員選擇了100個進行測試。
其中,有66個產生了與消滅蛋白和唾液中細菌的天然蛋白質類似的化學反應。
也就是說,這些由AI產生的新蛋白質也可以殺死細菌。
產生的人工蛋白是多樣化的,且在實驗系統中表達良好
#更進一步,研究人員選擇了反反應最強的五種蛋白質,並將它們加入大腸桿菌的樣本中。
其中,有兩種人工酵素能夠分解細菌的細胞壁。
透過與雞蛋白溶菌酶(HEWL)進行比較可以發現,它們的活性與HEWL相當。
隨後,研究人員又用X射線進行了成像。
儘管人工酵素的胺基酸序列與現有的蛋白質有高達30%的差異,二者之間也只有18%是相同的,但它們的形狀卻與自然界的蛋白質相差無幾,功能也可以與之媲美。
條件語言建模對其他蛋白質系統的適用性
#除此之外,對於高度進化的天然蛋白質來說,可能只需一個小突變就會讓它停止工作。
但研究人員在另一輪篩選中發現,在AI生成的酵素中,即使只有31.4%的序列與已知蛋白質相同,也能表現出相當的活性以及類似的結構。
可以看到,ProGen的運作方式與ChatGPT很類似。
ChatGPT透過學習大量數據,可以參加MBA和律師考試、撰寫大學論文。
而ProGen則透過學習胺基酸如何組合成2.8億個現有蛋白質的語法,學會如何產生新的蛋白質。
In the interview, Madani said, “Just like ChatGPT learns human languages such as English, we are learning the language of biology and proteins. ."
"Artificially designed proteins perform much better than proteins inspired by evolutionary processes," said James, co-author of the paper and professor of bioengineering and therapeutic sciences at the UCSF School of Pharmacy. Fraser said.
"Language models are learning aspects of evolution, but it is different from the normal evolutionary process. We now have the ability to adjust the production of these features to obtain specific effects. For example, let a Enzymes that are incredibly thermally stable, or prefer acidic environments, or don't interact with other proteins."
Back in 2020, Salesforce Research developed ProGen . It is based on natural language programming and was originally used to generate English text.
From previous work, researchers know that artificial intelligence systems can teach themselves grammar and word meanings, as well as other basic rules that make writing organized.
“When you train sequence-based models with large amounts of data, they are very powerful at learning structures and rules,” said Nikhil, director of artificial intelligence research at Salesforce Research and senior author of the paper. Dr. Naik said, "They will understand which words can appear together and how to combine them."
"Now, we have demonstrated the ability of ProGen to generate new proteins and made it public Released, everyone can conduct research based on ours."
Lysozyme, which is a protein, although very small , with up to about 300 amino acids.
But with 20 possible amino acids, there are 20^300 possible combinations.
This is more than all human beings throughout the ages multiplied by the number of grains of sand on the earth, multiplied by the number of atoms in the universe.
Given the near-infinite possibilities, it’s truly remarkable that Progen was able to design effective enzymes so easily.
"Generate it from scratch right out of the box," said Dr. Ali Madani, founder of Profluent Bio and former research scientist at Salesforce Research. The ability to create functional proteins shows that we are entering a new era of protein design."
"This is a versatile new tool available to all protein engineers, and we look forward to seeing it used. Applied to treatment."
At the same time, researchers continue to improve ProGen, trying to break through more limitations and challenges.
One of them is that it relies heavily on data.
"We have explored ways to improve sequence design by adding structure-based information," Naik said. "We are also looking at when you don't have much information about a particular protein family or How to improve the model generation capabilities when using data in the field."
It is worth noting that some startups are also trying similar technologies, such as Cradle, and the Biotechnology Incubator Flagship Pioneering's Generate Biomedicines, but these studies have not yet been peer-reviewed.
以上是超越諾獎?生物界「ChatGPT」首次實現從零合成全新蛋白,登Nature子刊!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

今天我想分享一個最新的研究工作,這項研究來自康乃狄克大學,提出了一種將時間序列資料與自然語言處理(NLP)大模型在隱空間上對齊的方法,以提高時間序列預測的效果。此方法的關鍵在於利用隱空間提示(prompt)來增強時間序列預測的準確性。論文標題:S2IP-LLM:SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting下載網址:https://arxiv.org/pdf/2403.05798v1.pdf1、問題背景大模型

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
