Llama分子嵌入優於GPT,LLM能理解分子嗎?這一局Meta贏了OpenAI
OpenAI 的GPT 和Meta AI 的Llama 等大型語言模型(LLM)因其在化學資訊學領域的潛力而日益受到認可,特別是在理解簡化分子輸入行輸入系統( SMILES)方面。這些 LLM 也能夠將 SMILES 字串解碼為向量表示。
加拿大溫莎大學(University of Windsor)的研究人員比較了GPT 和Llama 與SMILES 上的預訓練模型在下游任務中嵌入SMILES 字符串的性能,重點關注兩個關鍵應用:分子特性預測和藥物-藥物相互作用預測。
研究以「Can large language models understand molecules?」為題,於 2024 年 6 月 25 日發佈在《BMC Bioinformatics》。
分子嵌入是藥物發現中至關重要的任務,廣泛應用於分子性質預測、藥物-靶標相互作用(DTI) 預測和藥物-藥物相互作用(DDI) 預測等相關任務中。
2. 分子嵌入技術
分子嵌入技術可從編碼分子結構連接資訊的分子圖或其結構的線註釋中學習特徵,例如流行的 SMILES 表示。
3. SMILES 字串中的分子嵌入
透過 SMILES 字串進行分子嵌入與語言建模的進步同步發展,從靜態字嵌入到情境化的預訓練模型。這些嵌入技術旨在以緊湊的數值表示形式捕捉相關結構和化學資訊。
基本假設認為結構相似的分子行為方式相似。這使得機器學習演算法能夠處理和分析分子結構,以進行屬性預測和藥物發現任務。
隨著 LLM 的突破,一個突出的問題是 LLM 是否能夠理解分子並根據分子數據進行推論?
更具體地說,LLM 能否產生高品質的語意表示?
溫莎大學的 Shaghayegh Sadeghi、Alioune Ngom Jianguo Lu 等人進一步探討了這些模型有效嵌入 SMILES 的能力。目前,這項能力尚未充分探索,部分原因可能是 API 呼叫的成本。
研究人員發現,使用 Llama 產生的 SMILES 嵌入在分子特性和 DDI 預測任務中的表現都優於 GPT 產生的 SMILES 嵌入。
值得注意的是,基於 Llama 的 SMILES 嵌入在分子預測任務中表現出與 SMILES 上的預訓練模型相當的結果,且在 DDI 預測任務中優於預訓練模型。
據此,團隊的結論如下:
(1)LLM 的表現確實優於傳統方法。 (2)性能取決於任務,有時也取決於數據。 (3)即使針對更通用的任務進行訓練,LLM 的新版本確實比舊版本有所改進。 (4)Llama 的嵌入整體上優於 GPT 嵌入。 (5)此外,觀察到 Llama 和 Llama2 在嵌入性能方面非常接近。
團隊特別推薦 Llama 模型而不是 GPT,因為它們在從 SMILES 字串生成分子嵌入方面具有卓越的性能。這些發現表明 Llama 在預測分子特性和藥物交互作用方面可能特別有效。
雖然 Llama 和 GPT 等模型並非專門為 SMILES 字串嵌入而設計(與 ChemBERTa 和 MolFormer-XL 等專業模型不同),但它們仍然表現出了競爭力。該工作為將來改進 LLM 分子嵌入奠定了基礎。
未來,團隊將專注於提高由自然語言句子嵌入技術啟發而來的 LLM 分子嵌入的質量,例如對 Llama 標記化的微調和修改。
GitHub:https://github.com/sshaghayeghs/LLaMA-VS-GPT
論文連結:https://bmcbioinformatics.biomedcentral.com/articles/10.1186/s12859-024-05847-x
以上是Llama分子嵌入優於GPT,LLM能理解分子嗎?這一局Meta贏了OpenAI的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

譯者|布加迪審校|重樓本文介紹如何使用GroqLPU推理引擎在JanAI和VSCode中產生超快速反應。每個人都致力於建立更好的大語言模型(LLM),例如Groq專注於AI的基礎設施方面。這些大模型的快速響應是確保這些大模型更快捷響應的關鍵。本教學將介紹GroqLPU解析引擎以及如何在筆記型電腦上使用API和JanAI本地存取它。本文也將把它整合到VSCode中,以幫助我們產生程式碼、重構程式碼、輸入文件並產生測試單元。本文將免費創建我們自己的人工智慧程式設計助理。 GroqLPU推理引擎簡介Groq

Plaud Note AI 錄音機(亞馬遜上有售,售價 159 美元)背後的公司 Plaud 宣布推出一款新產品。該設備被稱為 NotePin,被描述為人工智慧記憶膠囊,與 Humane AI Pin 一樣,它是可穿戴的。 NotePin 是

在現代製造業中,精準的缺陷檢測不僅是確保產品品質的關鍵,更是提升生產效率的核心。然而,現有的缺陷檢測資料集常常缺乏實際應用所需的精確度和語意豐富性,導致模型無法辨識特定的缺陷類別或位置。為了解決這個難題,由香港科技大學廣州和思謀科技組成的頂尖研究團隊,創新地開發了「DefectSpectrum」資料集,為工業缺陷提供了詳盡、語義豐富的大規模標註。如表一所示,相較於其他工業資料集,「DefectSpectrum」資料集提供了最多的缺陷標註(5438張缺陷樣本),最細緻的缺陷分類(125個缺陷類別

圖檢索增強生成(GraphRAG)正逐漸流行起來,成為傳統向量搜尋方法的強大補充。這種方法利用圖資料庫的結構化特性,將資料以節點和關係的形式組織起來,從而增強檢索資訊的深度和上下文關聯性。圖在表示和儲存多樣化且相互關聯的資訊方面具有天然優勢,能夠輕鬆捕捉不同資料類型間的複雜關係和屬性。而向量資料庫則處理這類結構化資訊時則顯得力不從心,它們更專注於處理高維度向量表示的非結構化資料。在RAG應用中,結合結構化的圖資料和非結構化的文字向量搜索,可以讓我們同時享受兩者的優勢,這也是本文將要探討的內容。構

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

編輯|KX時至今日,晶體學所測定的結構細節和精度,從簡單的金屬到大型膜蛋白,是任何其他方法都無法比擬的。然而,最大的挑戰——所謂的相位問題,仍然是從實驗確定的振幅中檢索相位資訊。丹麥哥本哈根大學研究人員,開發了一種解決晶體相問題的深度學習方法PhAI,利用數百萬人工晶體結構及其相應的合成衍射數據訓練的深度學習神經網絡,可以產生準確的電子密度圖。研究表明,這種基於深度學習的從頭算結構解決方案方法,可以以僅2埃的分辨率解決相位問題,該分辨率僅相當於原子分辨率可用數據的10%到20%,而傳統的從頭算方

開放LLM社群正是百花齊放、競相爭鳴的時代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1等許多表現優良的模型。但是,相較於以GPT-4-Turbo為代表的專有大模型,開放模型在許多領域仍有明顯差距。在通用模型之外,也有一些專精關鍵領域的開放模型已被開發出來,例如用於程式設計和數學的DeepSeek-Coder-V2、用於視覺-語言任務的InternVL

對AI來說,奧數不再是問題了。本週四,GoogleDeepMind的人工智慧完成了一項壯舉:用AI做出了今年國際數學奧林匹克競賽IMO的真題,並且距拿金牌僅一步之遙。上週剛結束的IMO競賽共有六道賽題,涉及代數、組合學、幾何和數論。谷歌提出的混合AI系統做對了四道,獲得28分,達到了銀牌水準。本月初,UCLA終身教授陶哲軒剛剛宣傳了百萬美元獎金的AI數學奧林匹克競賽(AIMO進步獎),沒想到7月還沒過,AI的做題水平就進步到了這種水平。 IMO上同步做題,做對了最難題IMO是歷史最悠久、規模最大、最負
