Heim > Technologie-Peripheriegeräte > KI > Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

王林
Freigeben: 2023-04-18 12:52:03
nach vorne
1029 Leute haben es durchsucht

​Künstliche Intelligenz entwickelt sich seit siebzig Jahren weiter. Obwohl die technischen Indikatoren kontinuierlich aktualisiert wurden, gibt es immer noch keine Antwort darauf, was genau „Intelligenz“ ist und wie sie entstanden und entwickelt ist.

Kürzlich hat sich Professor Ma Yi mit dem Informatiker Dr. Shen Xiangyang und dem Neurowissenschaftler Professor Cao Ying zusammengetan, um einen Forschungsbericht über die Entstehung und Entwicklung von Intelligenz zu veröffentlichen, in der Hoffnung, die Forschung zur Intelligenz in der Theorie zu vereinheitlichen und das Verständnis davon zu verbessern Verständnis und Interpretierbarkeit von Modellen der künstlichen Intelligenz.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Link zum Papier: http://arxiv.org/abs/2207.04630

Der Artikel stellt zwei Grundprinzipien vor: Sparsamkeit und Selbstkonsistenz.

Der Autor glaubt, dass dies der Grundstein für den Aufstieg künstlicher oder natürlicher Intelligenz ist. Obwohl es zu jedem dieser beiden Prinzipien in der klassischen Literatur zahlreiche Diskussionen und Ausarbeitungen gibt, werden diese beiden Prinzipien in diesem Artikel auf völlig messbare und berechenbare Weise neu interpretiert.

Basierend auf diesen beiden ersten Prinzipien leiten die Autoren ein effizientes Rechengerüst ab: die komprimierte Closed-Loop-Transkription, die die Entwicklung moderner tiefer Netzwerke und vieler Praktiken der künstlichen Intelligenz vereinheitlicht und erklärt.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Zwei Grundprinzipien: Einfachheit und Selbstkonsistenz

Mit dem Segen des Deep Learning beruhen die im letzten Jahrzehnt erzielten Fortschritte in der künstlichen Intelligenz hauptsächlich auf dem Training homogener Black-Box-Modelle unter Verwendung von Rohöl Technische Methoden zum Training großer neuronaler Netze.

Obwohl die Leistung verbessert wurde und keine Notwendigkeit besteht, Features manuell zu entwerfen, ist die im neuronalen Netzwerk erlernte Feature-Darstellung nicht interpretierbar und große Modelle bringen andere Probleme mit sich, wie z. B. die steigenden Kosten für die Datenerfassung und -berechnung erlernten Darstellungen mangelt es an Reichtum, Stabilität (Moduskollaps), Anpassungsfähigkeit (anfällig für katastrophales Vergessen);

Der Autor ist der Ansicht, dass einer der grundlegenden Gründe für diese Probleme in der aktuellen Praxis von tiefen Netzwerken und künstlicher Intelligenz das Fehlen eines systematischen und umfassenden Verständnisses der Funktionen und Organisationsprinzipien intelligenter Systeme ist.

Zum Beispiel sind das Training eines diskriminativen Modells zur Klassifizierung und eines generativen Modells zum Sampling oder Wiederholen in der Praxis grundsätzlich getrennt. Auf diese Weise trainierte Modelle werden üblicherweise als Open-Loop-Systeme bezeichnet und erfordern ein durchgängiges Training durch Supervision oder Selbstsupervision.

In der Regelungstheorie können solche Open-Loop-Systeme Fehler in Vorhersagen nicht automatisch korrigieren und sind nicht an Veränderungen in der Umgebung anpassbar; genau aus diesem Grund verwenden wir in geregelten Systemen häufig „Closed-Loop-Feedback“. „um das System in die Lage zu versetzen, Fehler selbständig zu korrigieren.

Ähnliche Erfahrungen gelten auch beim Lernen: Sobald diskriminierende und generative Modelle zu einem vollständigen geschlossenen System kombiniert werden, kann das Lernen autonom (ohne externe Aufsicht), effizienter und stabiler und anpassungsfähiger werden.

Um die Funktionskomponenten zu verstehen, die in einem intelligenten System benötigt werden können, wie etwa Diskriminatoren oder Generatoren, müssen wir Intelligenz aus einer „prinzipielleren“ und „einheitlicheren“ Perspektive verstehen.

Der Artikel schlägt zwei Grundprinzipien vor: Sparsamkeit und Selbstkonsistenz, die jeweils zwei grundlegende Fragen zum Lernen beantworten.

  • Was man lernen kann: Was kann man aus Daten lernen und wie kann man die Qualität des Lernens messen?
  • Wie lernt man: Wie erreichen wir ein solches Lernziel durch ein effizientes und effektives Computer-Framework?

Was die erste Frage betrifft, „was man lernen soll“, lautet das Prinzip der Einfachheit:

Das Lernziel eines intelligenten Systems besteht darin, niedrigdimensionale Strukturen aus den Beobachtungsdaten der Außenwelt zu finden und auf die kompakteste und summativste Art und Weise neu organisieren und strukturiert darstellen.

Dies ist das „Occams Rasiermesser“-Prinzip: Fügen Sie keine Entitäten hinzu, es sei denn, dies ist erforderlich.

Ohne dieses Prinzip wäre Intelligenz nicht möglich! Wenn die Beobachtungsdaten der Außenwelt keine niedrigdimensionale Struktur aufweisen, gibt es nichts, was es wert wäre, gelernt oder erinnert zu werden, und eine gute Verallgemeinerung oder Vorhersage ist nicht möglich.

Und intelligente Systeme müssen möglichst viele Ressourcen wie Energie, Raum, Zeit und Materie einsparen. In manchen Fällen wird dieses Prinzip auch „Kompressionsprinzip“ genannt. Die Sparsamkeit der Intelligenz besteht jedoch nicht darin, die beste Komprimierung zu erreichen, sondern darin, durch effiziente Rechenmittel den kompaktesten und strukturiertesten Ausdruck der Beobachtungsdaten zu erhalten.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Wie misst man also Einfachheit?

Bei allgemeinen hochdimensionalen Modellen ist der Rechenaufwand vieler häufig verwendeter mathematischer oder statistischer „Maße“ exponentiell oder für Datenverteilungen mit niedrigdimensionalen Strukturen sogar undefiniert. Beispielsweise maximale Wahrscheinlichkeit, KL-Divergenz, gegenseitige Information , Jensen-Shannon- und Wasserstein-Distanz usw.

Der Autor glaubt, dass der Zweck des Lernens tatsächlich darin besteht, eine Zuordnung (normalerweise nichtlinear) zu erstellen, um eine niedrigdimensionale Darstellung aus der ursprünglichen hochdimensionalen Eingabe zu erhalten.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Auf diese Weise sollte die Verteilung des erhaltenen Merkmals z kompakter und strukturierter sein; kompakt bedeutet eine effizientere Speicherung und Nutzung: insbesondere lineare Strukturen, die interpoliert oder ideal sind zur Extrapolation.

Zu diesem Zweck führt der Autor die lineare Diskriminanzdarstellung (LDR) ein, um drei Unterziele zu erreichen:

  1. Komprimierung: Abbildung hochdimensionaler sensorischer Daten x auf niedrigdimensionale Darstellung z;
  2. Linearisierung : Ordnen Sie jeden im nichtlinearen Untergrund verteilten Objekttyp einem linearen Unterraum zu.
  3. Sparsifizierung: Ordnen Sie verschiedene Kategorien voneinander unabhängigen oder am wenigsten relevanten Unterräumen zu.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Diese Ziele können durch maximale Reduzierung der Codierungsrate (Ratenreduzierung) erreicht werden, um sicherzustellen, dass das erlernte LDR-Modell die optimale sparsame Leistung aufweist.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

In Bezug auf die zweite Frage „Wie lernt man?“ besagt das Prinzip der Selbstkonsistenz:

Ein autonomes intelligentes System wird intern durch die Minimierung der beobachteten Daten und regenerierten Daten ausgedrückt konsistentestes Modell für die Beobachtung der Außenwelt.

Das Prinzip der Sparsamkeit allein stellt nicht sicher, dass das erlernte Modell alle wichtigen Informationen über die Daten über die Außenwelt erfasst. Beispielsweise kann die Abbildung jeder Kategorie auf einen eindimensionalen One-Hot-Vektor durch Minimierung der Kreuzentropie als eine Form der Sparsamkeit angesehen werden.

Es kann ein guter Klassifikator erlernt werden, aber die erlernten Merkmale können auch zu einem Singleton zusammenfallen, was auch als neuronaler Kollaps bezeichnet wird. Solche erlernten Features enthalten nicht mehr genügend Informationen, um die Originaldaten wiederherzustellen.

Selbst wenn wir das allgemeinere LDR-Modell betrachten, kann die Maximierung der Codierungsratendifferenz allein nicht automatisch die korrekten Abmessungen des Umgebungsmerkmalsraums bestimmen.

Wenn die Dimensionalität des Merkmalsraums zu niedrig ist, stimmt das erlernte Modell nicht mit den Daten überein, wenn sie zu hoch ist, kann es sein, dass das Modell zu stark übereinstimmt.

Generell betrachten wir wahrnehmungsbezogenes Lernen als etwas anderes als das Erlernen spezifischer Aufgaben. Das Ziel der Wahrnehmung besteht darin, alles Vorhersehbare über das Wahrgenommene zu erfahren.

Wie Einstein sagte: „Die Dinge sollten einfach gehalten werden, aber nicht zu einfach.“

Universal Learning Engine

Basierend auf diesen beiden Prinzipien wird der Artikel anhand visueller Bilddaten modelliert. Das komprimierende Transkriptionsgerüst mit geschlossenem Regelkreis wird abgeleitet.

Es führt intern eine komprimierte Closed-Loop-Transkription nichtlinearer Datenunterflussmuster durch, indem es die Unterschiede in internen Darstellungen vergleicht und minimiert, um LDR zu erreichen.

Das Chase-and-Escape-Spiel zwischen dem Encoder/Sensor und dem Decoder/Controller ermöglicht die Verteilung der von der dekodierten Darstellung erzeugten Daten, um die beobachteten zu verfolgen und abzugleichen echte Daten verteilt.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Darüber hinaus wies der Autor darauf hin, dass eine komprimierte Closed-Loop-Transkription dies kann Inkrementstudie effektiv durchführen.

Ein LDR-Modell für eine neue Datenklasse kann durch ein eingeschränktes Spiel zwischen dem Encoder und dem Decoder gelernt werden: Die Erinnerung an früher gelernte Klassen kann auf natürliche Weise beibehalten werden eine Einschränkung im Spiel, das heißt als „Fixpunkt“ für die Transkription im geschlossenen Regelkreis.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Der Artikel enthält auch weitere Ideen zur Universalität dieses spekulativen Rahmens Ideen, erweitern sie auf dreidimensionales Sehen und verstärkendes Lernen und prognostizieren ihre Auswirkungen auf Neurowissenschaften, Mathematik und fortgeschrittene Intelligenz.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Durch diesen Rahmen werden erste Prinzipien abgeleitet: Informationskodierungskonzepte aus der Theorie, Rückkopplungsregelung mit geschlossenem Regelkreis, Optimierung/tiefe Netzwerke und Spieltheorie sind alle organisch integriert und werden zu notwendigen Komponenten eines vollständigen, autonomen intelligenten Systems.

Leitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung

Es ist erwähnenswert, dass die komprimierte Closed-Loop-Architektur überall verwendet wird In der Natur gibt es intelligente Organismen überall und auf unterschiedlichen Ebenen: vom Gehirn (komprimierte sensorische Informationen) über die Schaltkreise der Wirbelsäule (komprimierte Muskelbewegungen) bis zur DNA (komprimierte funktionelle Informationen von Proteinen) und so weiter.

Der Autor glaubt also, dass die komprimierende Closed-Loop-Transkription die „universelle Lernmaschine“ hinter allen intelligenten Verhaltensweisen sein sollte. Es ermöglicht natürlichen oder künstlichen Intelligenzsystemen, niedrigdimensionale Strukturen aus scheinbar komplexen Sinnesdaten zu entdecken und zu verfeinern und sie in prägnante und regelmäßige interne Ausdrücke umzuwandeln, um eine korrekte Beurteilung und Vorhersage der Außenwelt in der Zukunft zu erleichtern.

Dies ist die Berechnungsgrundlage und der Mechanismus für die Entstehung und Entwicklung aller Intelligenz.

Referenz: http://arxiv.org/abs/2207.04630​#🎜🎜#

Das obige ist der detaillierte Inhalt vonLeitet die KI-Entwicklung die Vereinigung in 70 Jahren ein? Ma Yi, Cao Ying, Shen Xiangyangs neueste KI-Rezension: Erkundung der Grundprinzipien und des „Standardmodells' der Intelligenzgenerierung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage