Heim Technologie-Peripheriegeräte KI Natur-Unterjournal |. Basierend auf endogener Komplexität schlägt das neue gehirnähnliche Netzwerk des Instituts für Automatisierung eine Brücke zwischen künstlicher Intelligenz und Neurowissenschaften

Natur-Unterjournal |. Basierend auf endogener Komplexität schlägt das neue gehirnähnliche Netzwerk des Instituts für Automatisierung eine Brücke zwischen künstlicher Intelligenz und Neurowissenschaften

Aug 19, 2024 am 05:02 AM
工程 Neurowissenschaften

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einsendungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Diese Arbeit wurde in „Nature Computational Science“ veröffentlicht. Die korrespondierenden Autoren sind die Forscher Li Guoqi und Xu Bo vom Institute of Automation der Chinese Academy of Sciences und Professor Tian Yonghong von der Peking-Universität. Die Co-Autoren sind He Linxuan, ein Student im Grundstudium von Qian , und He Weihua und Lin Yihan, Doktoranden in der Abteilung für Präzisionsinstrumente der Tsinghua-Universität.

Modelle mit breiteren und allgemeineren kognitiven Fähigkeiten zu ermöglichen, ist ein wichtiges Ziel in der aktuellen Entwicklung auf dem Gebiet der künstlichen Intelligenz (KI). Der derzeit beliebte Pfad für große Modelle basiert auf dem Skalierungsgesetz, um größere, tiefere und breitere neuronale Netze aufzubauen, um die Modellleistung zu verbessern. Dies kann als allgemeine Intelligenzimplementierungsmethode „basierend auf exogener Komplexität“ bezeichnet werden. Dieser Weg ist jedoch auch mit einigen unüberwindbaren Schwierigkeiten konfrontiert, wie z. B. einem hohen Rechenressourcen- und Energieverbrauch, und weist Mängel bei der Interpretierbarkeit auf.

Künstliche Intelligenz und Neurowissenschaften sind seit langem voneinander abhängig und werden gemeinsam entwickelt. Um das Dilemma zu überwinden, allgemeine Intelligenz „basierend auf exogener Komplexität“ zu realisieren, griff das Forschungsteam von Li Guoqi und Xu Bo vom Institut für Automatisierung der Chinesischen Akademie der Wissenschaften zusammen mit der Tsinghua-Universität, der Peking-Universität und anderen auf Folgendes zurück komplexe dynamische Eigenschaften von Gehirnneuronen und vorgeschlagen „basierend auf endogener Komplexität“. „Die hirnähnliche Neuronenmodellkonstruktionsmethode (Abbildung 1) verbessert das Problem des Rechenressourcenverbrauchs, das durch die Ausweitung traditioneller Modelle verursacht wird, und bietet ein Beispiel für die effektive Verwendung.“ der Neurowissenschaften zur Entwicklung künstlicher Intelligenz. Die Fachzeitschrift Nature Computational Science kommentierte dies wie folgt: „KI-Forschung ist näher am Ingenieurwesen und an Anwendungen, während die neurowissenschaftliche Forschung eher explorativ ist.“ Das Forschungsteam stellte diese traditionelle Sichtweise in Frage und zeigte, dass detailliertere und biologisch realistischere Neuronenmodelle größere Fortschritte beim Deep Learning vorantreiben können „

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

  • Papierlink: https://www.nature.com/articles/s43588-024-00674-9

  • Kommentarlink: https:// /www.nature.com/articles/ s43588-024-00677-6

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

                                                                                                                     Endogene Komplexität bezieht sich auf die interne Nutzung der komplexen dynamischen Eigenschaften von Gehirnneuronen, um ein primitives neuronales Netzwerkmodell zu konstruieren. Ein kleines Netzwerkmodell mit endogener Komplexität: Inspiration durch biologische Neuronen. Biologische Neuronen haben komplexe interne Strukturen, wie z B. Ionenkanäle, synaptische Übertragungsmechanismen usw. – diese komplexen inneren Strukturen ermöglichen es Neuronen, komplexe Signale zu verarbeiten und vielfältige Reaktionen zu erzeugen. Im Gegensatz dazu übernehmen aktuelle Modelle neuronaler Netzwerke mit künstlichem Spike, wie das klassische LIF-Netzwerk (Leaky Integrate and Fire), normalerweise einfache interne Strukturen und sind schwierig, die komplexe Dynamik und Funktion biologischer Neuronen zu simulieren. In dieser Studie schlugen die Forscher das Konzept eines „kleinen Netzwerkmodells mit endogener Komplexität“ vor. Die Kernidee besteht darin, komplexe interne Strukturen in einzelne Neuronen einzuführen, indem die komplexe Dynamik biologischer Neuronen simuliert wird, um so ein effizienteres KI-Modell aufzubauen . In dieser Studie verwendeten die Forscher beispielsweise das HH-Modell (Hodgkin-Huxley) im Spiking-Neuronalen Netzwerk, um das traditionelle LIF-Modell zu ersetzen. Als mathematisches Modell, das den Mechanismus der Erzeugung des Aktionspotenzials von Neuronen beschreibt, verfügt das HH-Modell über eine Feindynamik, die durch komplexe interne Strukturen hervorgerufen wird, und kann die Reaktion von Neuronen auf verschiedene Reize simulieren.

Transformation von exogener Komplexität zu endogener Komplexität

Theoretische Dynamikableitung und Simulation

研究團隊透過理論證明了HH 模型與LIF 模型在動作電位產生機制上存在某種等效關係,即一個HH 神經元可以和四個時變參數LIF 神經元(tv-LIF)以特定連接方式形成的微結構等效,其中每個LIF 神經元描述HH 模型中的一個離子通道。基於這種等效性,可以透過設計微結構提升計算單元的內生複雜性,使HH 網路模型能夠模擬更大規模LIF 網路模型的動力學特性,在更小的網路結構上實現與之相似的計算功能。

研究團隊透過模擬神經元刺激輸入對比網路輸出對該理論進行了模擬驗證。在相同的輸入刺激下,具有較高外生複雜性的 tv-LIF 網路能夠與 HH 模型產生相同的輸出反應。進一步,團隊將四個tv-LIF 神經元建構的「HH 模型」(tv-LIF2HH)簡化為s-LIF2HH 模型,透過模擬實驗驗證了這種簡化模型仍然保留捕捉HH 模型動力學行為的可能性(圖2)。

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

                                對上生長時保持複雜性的複雜性行為 保持複雜性動力行為

網路學習實驗對比

除了透過模擬研究相同刺激下不同網路的動力學行為,研究者建構了更大規模的HH 網路模型, s-LIF2HH 網路模型,並進行了多任務分類和深度強化學習實驗。結果表明,具有內生複雜性HH 網路模型能夠與更大規模的s-LIF2HH 網路模型在表示能力和穩健性上具有相似的性能,相比更大規模的一般LIF 網路表現出更好的性能。

  • 多任務學習實驗:研究者透過使用Fashion-MNIST 資料集進行多任務學習實驗,結果顯示HH 網路模型能夠與更大規模的s-LIF2HH 網路模型實現相當效能,甚至略優於更大規模的一般LIF 網路(圖3)。

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

                                 圖3. 內生複雜性的HH 網路模型在多重任務上能與更大規模外生複雜性網路絡性能相當

  • 時序強化學習實驗:研究者在倒立擺(Inverted Pendulum)和倒立雙擺(Inverted Double Pendulum)環境下進行時序強化學習實驗,結果顯示HH 網路模型能夠與更大規模的LIF 網路模型相比,表現出更強的時序資訊擷取能力(圖4)。

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

                             性能相當

  • 魯棒性實驗:研究者在多任務學習和深度強化學習任務中加入高斯噪聲,以評估網路的穩健性。實驗結果顯示,更大規模的一般 LIF 網路模型在噪音影響下效能下降幅度最大,而 HH 網路模型和更大規模的 s-LIF2HH 網路模型則表現出更強的穩健性。在噪音強度增加的情況下,HH 網路模型和 s-LIF2HH 網路模型的獎勵曲線仍然保持接近,並且相比一般 LIF 網路模型受到的影響顯著地更小(圖 5)。

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

                             

實驗證明了內生複雜性模型在處理複雜任務時的有效性和可靠性。同時,研究發現 HH 網路模型在計算資源消耗上更為高效,顯著減少了記憶體和計算時間的使用,從而提高了整體的運算效率。研究團隊透過資訊瓶頸理論對上述研究結果進行了解釋。除此之外,小規模的模型外部結構相對簡單,更容易理解其決策過程,也提高了模型的可解釋性和安全性。

結語與展望

具有內生複雜性的小型模型為 AI 的發展帶來了新的機會。透過模擬生物神經元的複雜動力學,優化模型的局部微結構擴展內生複雜性,我們可以建立更有效率、更強大的 AI 模型,並克服外部複雜性大型模型的困境。未來,拓展內生複雜性或將成為 AI 研究的重要方向,並推動 AI 技術走向更廣泛的應用。

本研究為將神經科學的複雜動力學特性融入人工智慧提供了新的方法和理論支持,為實際應用中的 AI 模型優化和性能提升提供了可行的解決方案。目前,研究團隊已進行對更大規模HH 網絡,以及具備更大內生複雜性的多分枝多房室神經元的研究,有望進一步提升大模型計算效率與任務處理能力,實現在實際應用場景中的快速落地。

Das obige ist der detaillierte Inhalt vonNatur-Unterjournal |. Basierend auf endogener Komplexität schlägt das neue gehirnähnliche Netzwerk des Instituts für Automatisierung eine Brücke zwischen künstlicher Intelligenz und Neurowissenschaften. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles