Heim Technologie-Peripheriegeräte KI Neuronale Netze benötigen möglicherweise keine Aktivierungsfunktionen mehr? Die Ebenennormalisierung hat auch einen nichtlinearen Ausdruck!

Neuronale Netze benötigen möglicherweise keine Aktivierungsfunktionen mehr? Die Ebenennormalisierung hat auch einen nichtlinearen Ausdruck!

Jul 03, 2024 pm 02:11 PM
神经网络 工程 ICML2024

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Die Autoren dieses Artikels stammen alle aus dem Team von Associate Professor Huang Lei, School of Artificial Intelligence, Beihang University und National Key Laboratory of Complex Critical Software Umfeld. Der erste Autor, Ni Yunhao, ist ein Doktorand im ersten Jahr, der zweite Autor, Guo Yuxin, ist ein Doktorand im dritten Jahr und der dritte Autor, Jia Junlong, ist ein Doktorand im zweiten Jahr Außerordentlicher Professor Huang Lei (Homepage: https://huangleibuaa.github.io/)

Neuronale Netze bestehen normalerweise aus drei Teilen: linearer Schicht, nichtlinearer Schicht (Aktivierungsfunktion) und Normalisierungsschicht. Die lineare Schicht ist der Hauptort, an dem Netzwerkparameter vorhanden sind. Die nichtlineare Schicht verbessert die Ausdrucksfähigkeit des neuronalen Netzwerks, während die Normalisierungsschicht (Normalisierung) hauptsächlich zur Stabilisierung und Beschleunigung des neuronalen Netzwerktrainings verwendet wird Beispielsweise kann die Batch-Normalisierung als lineare Transformation in der Vorhersagephase betrachtet werden und führt nicht zu Nichtlinearität im Ausdruck. Daher glauben Forscher im Allgemeinen, dass die Normalisierung die Ausdrucksfähigkeit des Modells nicht verbessern kann.

Der kürzlich auf der ICML2024 vom Team von Professor Huang Lei von der School of Artificial Intelligence der Beihang-Universität veröffentlichte Artikel „On the Nonlinearity of Layer Normalization“ wies jedoch darauf hin, dass die Schichtnormalisierung (Layer Normlization, LN) und ihre rechnerisch degradierte Version RMSNorm ist eine nichtlineare Ausdrucksfähigkeit, und die universelle Näherungsklassifizierungsfähigkeit von LN wird ausführlich besprochen.

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

  • Papieradresse: https://arxiv.org/abs/2406.01255

Dieses Papier beweist mathematisch die Nichtlinearität von LN. Und es wird ein einfaches neuronales Netzwerk LN-Net vorgeschlagen, das nur lineare Schichten und LN enthält. Wenn es tief genug ist, können gegebene Proben und Probenkategorien theoretisch beliebig klassifiziert werden. Diese Entdeckung durchbricht die Trägheit der Menschen, die verschiedene Normalisierungen als lineare Transformationen ohne Anpassungsfähigkeiten betrachten, und die nichtlineare Schicht und die Normalisierungsschicht sind keine disjunkten neuronalen Netzwerkmodule mehr.

Mit der weit verbreiteten Verwendung von Transformatoren ist LN als feste Komponente zu einer häufig verwendeten Technologie geworden. Diese Forschung könnte in Zukunft eine neue theoretische Grundlage für die Architektur neuronaler Netzwerke liefern ist von bahnbrechender Bedeutung.

Mathematische Entdeckung der LN-Nichtlinearität

Für die nichtlineare Forschung werden in dem Artikel nicht direkt die analytischen Eigenschaften von LN selbst erörtert, sondern die Beziehung zwischen LN und Daten auf praktischere Weise untersucht .

Der Autor schlug zunächst die Statistik SSR (Sum of Squares Ratio) vor, um die lineare Trennbarkeit von Proben in zwei Kategorien zu beschreiben. Wenn eine Probe linear transformiert wird, ändert sich auch das SSR. Daher wird der minimale SSR, der der Stichprobe unter allen linearen Transformationen entspricht, als LSSR definiert. Der Artikel weist darauf hin, dass die lineare Trennbarkeit zwischen den Proben stärker ist, wenn das LSSR kleiner ist.

Wenn jedoch die der Probe auferlegte lineare Änderung durch die Struktur „lineare Transformation-LN-lineare Transformation“ ersetzt wird, stellt sich heraus, dass das neue erhaltene SSR möglicherweise niedriger als das LSSR ist, was die Nichtlinearität bestätigt Ausdruck von LN – – Wenn LN linear ist, ist „lineare Transformation – LN – lineare Transformation“ ebenfalls linear, und der resultierende neue SSR kann nicht niedriger als der LSSR sein.

Beliebige Trennbarkeit von LN bei Klassifizierungsproblemen

Zur weiteren Forschung teilt der Autor LN in zwei Schritte auf: Zentrierung und Skalierung. Die Zentralisierung ist mathematisch gesehen eine lineare Transformation, daher besteht die Nichtlinearität von LN hauptsächlich in der Skalenskalierungsoperation (im Artikel auch sphärische Projektion genannt, die von RMSNorm durchgeführte Operation). Der Autor nahm als Beispiel die einfachsten linear untrennbaren XOR-Daten und klassifizierte diese vier Punkte durch lineare Transformation und sphärische Projektion korrekt.

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

Generell schlägt der Autor einen Algorithmus zur korrekten Klassifizierung einer beliebigen Anzahl von Proben mithilfe von LN und linearen Schichten vor und untersucht dabei die universelle Näherungsfähigkeit von LN-Net.

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

Durch die Konstruktion von Algorithmusschritten wird die schichtweise Transformation des neuronalen Netzwerks in ein ähnliches Problem der Probenzusammenführung umgewandelt, und das Problem der universellen ungefähren Klassifizierung wird in ein Problem der Probenzusammenführung umgewandelt, und es wird darauf hingewiesen - Für m Proben mit beliebiger Beschriftung ist es möglich, ein O(m)-Schicht-LN-Netz zu erstellen, um diese m Proben korrekt zu klassifizieren. Diese Konstruktionsmethode liefert auch neue Ideen zur Berechnung der VC-Dimension neuronaler Netze. Der Autor wies darauf hin, dass auf dieser Grundlage gefolgert werden kann, dass das LN-Netz mit L Normalisierungsschichten eine VC-Dimension von mindestens L+2 aufweist.

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

Nichtlineare LN-Verbesserung und praktische Anwendung

Basierend auf dem Nachweis der Nichtlinearität von LN schlug der Autor eine Gruppierungsschicht-Standardisierungstechnologie vor, um die Nichtlinearität von LN für praktische Anwendungen weiter zu verbessern. G). Der Autor sagt mathematisch voraus, dass die Gruppierung die Nichtlinearität von LN aus der Perspektive der Hessischen Matrix verstärken kann, und untersucht vorläufig die Ausdrucksfähigkeit von LN-G experimentell.

Der Autor wies darauf hin, dass die Genauigkeit des CIFAR-10-Zufallsetiketten-Datensatzes für das übliche lineare Schichtmodell 20 % nicht überschreitet, während das neuronale Netzwerk aus linearer Schicht und LN-G (ohne) verwendet wird Durch die Einführung der herkömmlichen Aktivierungsfunktion als nichtlineare Einheit kann eine Genauigkeit von 55,85 % erreicht werden.
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
Der Autor untersuchte den Klassifizierungseffekt von LN-G im Faltungs-Neuronalen Netzwerk ohne Aktivierungsfunktion weiter und bewies experimentell, dass dieses Neuronale Netzwerk ohne Aktivierungsfunktion tatsächlich über eine leistungsstarke Anpassungsfähigkeit verfügt. Darüber hinaus schlug der Autor eine LN-G-Position in Analogie zu MLP vor, bei der GN auf die gesamte Probe einwirkt (eine einzelne Probe in einen eindimensionalen Vektor streckt und dann GN durchführt). Durch die Verwendung der LN-G-Position-Methode im ResNet-Netzwerk ohne nichtlineare Schichten kann eine Genauigkeit von 86,66 % im CIFAR-10-Datensatz erreicht werden, was die leistungsstarke Ausdrucksfähigkeit von LN-G-Position widerspiegelt.
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
Der Autor führte dann eine experimentelle Studie zu Transformer durch, bei der das ursprüngliche LN durch LN-G ersetzt wurde. Den experimentellen Ergebnissen zufolge wurde festgestellt, dass die Standardisierung der Gruppenschicht die Leistung des Transformer-Netzwerks effektiv verbessern kann, was beweist reale Netzwerke, diese Machbarkeit der Theorie.

Fazit und Ausblick

In der Arbeit „On the Nonlinearity of Layer Normalization“ bewies der Autor erstmals theoretisch die universelle Klassifizierungsfähigkeit eines Modells, das nur lineare Schichten und LN enthält und gegeben ist Eine spezifische Tiefe Die untere Grenze der VC-Dimension des Modells Die wichtigste Bedeutung besteht darin, dass die Analyse der Ausdrucksfähigkeit traditioneller tiefer neuronaler Netze einen großen Schritt in Richtung der weit verbreiteten modernen realen Netze gemacht hat. Dies könnte neue Ideen für die Zukunft liefern Ideen für das Design neuronaler Netzwerkstrukturen.

Das obige ist der detaillierte Inhalt vonNeuronale Netze benötigen möglicherweise keine Aktivierungsfunktionen mehr? Die Ebenennormalisierung hat auch einen nichtlinearen Ausdruck!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles