Nature子刊 | 基於內生複雜性,自動化所新類腦網路構築人工智慧與神經科科學的橋樑

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本篇工作發表在《Nature Computational Science》上,共同通訊作者是中國科學院自動化所李國齊研究員、徐波研究員,北京大學科學院教授。共同一作是清華大學錢學森班的本科生何林軒(自動化所實習生)、數理基科班本科生徐蘊輝(自動化所實習生),清華大學精儀系博士生何煒華和林逸晗。
讓模型具有更廣泛和通用的認知能力,是當前人工智慧(AI)領域發展的重要目標。目前流行的大模型路徑是基於 Scaling Law (尺度定律) 去構建更大、更深和更寬的神經網路提升模型的表現,可稱之為 “基於外生複雜性” 的通用智能實現方法。然而,這條路徑也面臨著一些難以克服的困境,例如高昂的計算資源消耗和能源消耗,並且在可解釋性方面存在不足。
人工智慧與神經科學長期以來相互依存,協同發展。為了克服「基於外生複雜性」 實現通用智能的困境,中國科學院自動化研究所李國齊、徐波研究團隊聯合清華大學、北京大學等借鑒大腦神經元複雜動力學特性,提出了「基於內生複雜性」 的類腦神經元模型建構方法(圖1),改善了傳統模型透過向外拓展規模帶來的計算資源消耗問題,為有效利用神經科學發展人工智慧提供了範例。 Nature Computational Science 期刊對此評論道:「AI 研究更加貼近工程與應用,而神經科學的研究更加具有探索性。研究團隊挑戰了這一傳統觀點,並表明更詳細且生物學上更真實的神經元模型可以推動深度學習取得更大進展。 /www.nature.com/articles/s43588-024-00677-6
- 「外生複雜性」 與「內生複雜性」 定義示意圖。內生複雜性是指向內借鏡大腦神經元複雜動力學特性建構神經網路基元模型
在這項研究中,研究者提出了「具有內生複雜性的小網路模型」 這個概念,其核心思路是透過模擬生物神經元的複雜動力學,將複雜的內部結構引入單一神經元,從而建構更有效率的AI 模型。例如在本研究中,研究者在脈衝神經網路中使用 HH(Hodgkin-Huxley)模型來取代傳統的 LIF 模型。作為一種描述神經元動作電位產生機制的數學模型,HH 模型具有由複雜的內部結構帶來的精細動力學,可以模擬神經元對各種刺激的反應。 從外生複雜性至內生複雜性的轉化
理論動力學推導與模擬
研究チームは、活動電位発生メカニズムにおいてHHモデルとLIFモデルの間に一定の等価関係があること、つまり、1つのHHニューロンが4つの時変パラメータLIFニューロンと相互作用できることを理論的に証明しました(tv- LIF) は特定の方法で微細構造上の等価物を形成し、各 LIF ニューロンは HH モデルのイオン チャネルを記述します。この等価性に基づいて、コンピューティング ユニットの内因性の複雑さは微細構造を設計することで改善できるため、HH ネットワーク モデルは大規模な LIF ネットワーク モデルの動的特性をシミュレートし、より小規模なネットワーク構造で同様の結果を得ることができます。機能。
研究チームは、ニューロン刺激入力をシミュレートし、ネットワーク出力を比較することにより、理論をシミュレーションして検証しました。同じ入力刺激の下で、より高い外生的複雑性を備えた tv-LIF ネットワークは、HH モデルと同じ出力応答を生成できます。さらに、4つのtv-LIFニューロンから構築された「HHモデル」(tv-LIF2HH)をs-LIF2HHモデルに簡略化し、この簡略化したモデルでもHHの動的な挙動を捉えられる可能性を残していることをシミュレーション実験により検証しました。モデル (図 2)。
ニューロンは等価性を維持できる 動的動作は、計算タスクを簡素化した後も同様の動的動作を維持できる
ネットワーク学習実験の比較
シミュレーションを通じて同じ刺激下での異なるネットワークの動的挙動を研究することに加えて、研究者らは、より大規模な HH ネットワーク モデルである s-LIF2HH ネットワーク モデルを構築し、マルチタスク分類と深層強化学習の実験を実施しました。結果は、内因性の複雑性を持つ HH ネットワーク モデルが、表現能力と堅牢性の点で大規模な s-LIF2HH ネットワーク モデルと同様のパフォーマンスを持ち、大規模な一般的な LIF ネットワークよりも優れたパフォーマンスを示すことを示しています。
マルチタスク学習実験: 研究者は、Fashion-MNIST データセットを使用してマルチタスク学習実験を実施しました。結果は、HH ネットワーク モデルが競合できることを示しました。大規模な s-LIF2HH ネットワーク モデルは、大規模な一般的な LIF ネットワークよりもわずかに優れている、同等のパフォーマンスを実現します (図 3)。
パフォーマンスタスクの規模は、より大きな外因性複雑度ネットワークのタスクに匹敵する可能性があります
逐次強化学習実験: 研究者は倒立振子を実行しました ( 時間強化学習実験は、倒立振子および倒立二重振子環境下で実施されました。その結果、HH ネットワーク モデルは、大規模な LIF ネットワーク モデルと比較して、より強力な時間情報抽出能力を示すことができました (図 4)。
図 4. HH ネットワーク モデル時系列における内生的な複雑性 パフォーマンス強化学習タスクの強度は、より大きな外因性複雑度ネットワークのそれに匹敵します。ガウス ノイズが学習タスクと深層強化学習タスクに追加され、ネットワークの堅牢性が評価されます。実験結果は、大規模な一般 LIF ネットワーク モデルがノイズの影響下で最も大きなパフォーマンス低下を受けるのに対し、HH ネットワーク モデルと大規模な s-LIF2HH ネットワーク モデルはより強いロバスト性を示すことを示しています。ノイズ強度が増加しても、HH ネットワーク モデルと s-LIF2HH ネットワーク モデルの報酬曲線は近いままであり、一般的な LIF ネットワーク モデルよりも影響が大幅に小さくなります (図 5)。
実験により、複雑なタスクを処理する際の内生複雑性モデルの有効性と信頼性が証明されました。同時に、この研究では、HH ネットワーク モデルはコンピューティング リソースの消費効率が高く、メモリの使用量とコンピューティング時間が大幅に削減され、それによって全体的なコンピューティング効率が向上することがわかりました。研究チームは上記の研究結果を情報ボトルネック理論で説明した。さらに、小規模モデルの外部構造は比較的シンプルであるため、意思決定プロセスが理解しやすくなり、モデルの解釈可能性と安全性も向上します。
結論と展望
内因性の複雑さを伴う小さなモデルは、AI の開発に新たな機会をもたらします。生物学的ニューロンの複雑なダイナミクスをシミュレートし、モデルの局所的な微細構造を最適化して内因性の複雑さを拡張することで、より効率的で強力な AI モデルを構築し、外部の複雑さによる大規模モデルのジレンマを克服できます。将来的には、内因性の複雑性の拡大が AI 研究の重要な方向性となり、AI 技術の幅広い応用が促進される可能性があります。
この研究は、神経科学の複雑な動的特性を人工知能に統合するための新しい方法と理論的サポートを提供し、実際のアプリケーションにおけるAIモデルの最適化とパフォーマンス向上のための実現可能なソリューションを提供します。現在、研究チームは、より大規模なHHネットワークと、より内因性の複雑性を備えた多分岐マルチコンパートメントニューロンの研究を行っており、大規模モデルの計算効率とタスク処理能力がさらに向上し、実用化されることが期待されています。アプリケーションシナリオ。
以上是Nature子刊 | 基於內生複雜性,自動化所新類腦網路構築人工智慧與神經科科學的橋樑的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

同樣是圖生視頻,PaintsUndo走出了不一樣的路線。 ControlNet作者LvminZhang又開始整活了!這次瞄準繪畫領域。新項目PaintsUndo剛上線不久,就收穫1.4kstar(還在瘋狂漲)。項目地址:https://github.com/lllyasviel/Paints-UNDO透過這個項目,用戶輸入一張靜態圖像,PaintsUndo就能自動幫你生成整個繪畫的全過程視頻,從線稿到成品都有跡可循。繪製過程,線條變化多端甚是神奇,最終視頻結果和原始圖像非常相似:我們再來看一個完整的繪

乾杯!當論文討論細緻到詞句,是什麼體驗?最近,史丹佛大學的學生針對arXiv論文創建了一個開放討論論壇——alphaXiv,可以直接在任何arXiv論文之上發布問題和評論。網站連結:https://alphaxiv.org/其實不需要專門訪問這個網站,只需將任何URL中的arXiv更改為alphaXiv就可以直接在alphaXiv論壇上打開相應論文:可以精準定位到論文中的段落、句子:右側討論區,使用者可以發表問題詢問作者論文想法、細節,例如:也可以針對論文內容發表評論,例如:「給出至

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com這篇論文的作者皆來自伊利諾大學香檳分校(UIUC)張令明老師團隊,包括:StevenXia,四年級博士生,研究方向是基於AI大模型的自動代碼修復;鄧茵琳,四年級博士生,研究方

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com在人工智慧領域的發展過程中,對大語言模型(LLM)的控制與指導始終是核心挑戰之一,旨在確保這些模型既強大又安全地服務人類社會。早期的努力集中在透過人類回饋的強化學習方法(RL

如果AI模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域中得到應用,證明為什麼我們可以信任它們的輸出,並明確何時不應信任它們,變得越來越重要。獲得對複雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至於任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋並支持其決策。對於大型語言模型來說,我們也可以採用類似的方法。不過,在採用這種方法時,確保語言模型生

最近,被稱為千禧年七大難題之一的黎曼猜想迎來了新突破。黎曼猜想是數學中一個非常重要的未解決問題,與素數分佈的精確性質有關(素數是那些只能被1和自身整除的數字,它們在數論中扮演著基礎性的角色)。在當今的數學文獻中,已有超過一千個數學命題以黎曼猜想(或其推廣形式)的成立為前提。也就是說,黎曼猜想及其推廣形式一旦被證明,這一千多個命題將被確立為定理,對數學領域產生深遠的影響;而如果黎曼猜想被證明是錯誤的,那麼這些命題中的一部分也將隨之失去其有效性。新的突破來自MIT數學教授LarryGuth和牛津大學

語言模型真的能用於時序預測嗎?根據貝特里奇頭條定律(任何以問號結尾的新聞標題,都能夠用「不」來回答),答案應該是否定的。事實似乎也果然如此:強大如斯的LLM並不能很好地處理時序資料。時序,即時間序列,顧名思義,是指一組依照時間發生先後順序排列的資料點序列。在許多領域,時序分析都很關鍵,包括疾病傳播預測、零售分析、醫療和金融。在時序分析領域,近期不少研究者都在研究如何使用大型語言模型(LLM)來分類、預測和偵測時間序列中的異常。這些論文假設擅長處理文本中順序依賴關係的語言模型也能泛化用於時間序

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。引言近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的MLLM由众所周知的Transformer网络构成,这种网
