Nach einer einjährigen Pause kehrte die jährliche Debatte über Künstliche Intelligenz, die von Montreal.AI und dem emeritierten New York University-Professor Gary Marcus organisiert wurde, letzten Freitagabend zurück und fand wie im Jahr 2020 erneut als Online-Konferenz statt.
Die diesjährige Debatte – KI-Debatte 3: Die AGI-Debatte – konzentriert sich auf das Konzept der künstlichen allgemeinen Intelligenz, d. h. Maschinen, die in der Lage sind, unzählige Denkfähigkeiten auf nahezu menschlicher Ebene zu integrieren.
Videolink: https://www.youtube.com/watch?v=JGiLz_Jx9uI&t=7s
Diese Diskussion dauert dreieinhalb Stunden und konzentriert sich auf fünf Themen im Zusammenhang mit künstlicher Intelligenz Intelligenz Themenerweiterung: Kognition und Neurowissenschaften, gesunder Menschenverstand, Architektur, Ethik und Moral sowie Politik und Beitrag.
Neben vielen großen Namen der Informatik nahmen auch 16 Experten teil, darunter der Computational Neuroscientist Konrad Kording.
Dieser Artikel fasst die Ansichten von fünf der Großen kurz zusammen. Interessierte Leser können sich das vollständige Video über den Link oben ansehen.
Als bekannter Kritiker zitierte Marcus seinen Artikel im The New Yorker „Ist ‚Deep Learning‘ eine Revolution in der Entwicklung künstlicher Intelligenz?“ 》, hat erneut kaltes Wasser auf die Entwicklung der KI gegossen.
Marcus sagte, dass entgegen der jahrzehntelangen Welle der Begeisterung für künstliche Intelligenz nach der erfolgreichen Veröffentlichung von ImageNet durch Li Feifeis Team die „Wünsche“, allmächtige Maschinen zu bauen, nicht verwirklicht wurden.
DeepMind-Neurowissenschaftlerin Dileep George
Dileep George, eine Neurowissenschaftlerin von Google DeepMind, schlug einmal ein Konzept namens „Angeborenheit“ vor.
Einfach ausgedrückt sind es bestimmte Ideen, die im menschlichen Geist „eingebaut“ sind.
Sollten wir also bei der künstlichen Intelligenz der Angeborenheit mehr Aufmerksamkeit schenken?
In diesem Zusammenhang sagte George, dass jede Art von Wachstum und Entwicklung von einem Anfangszustand zu einem bestimmten stabilen Zustand drei Faktoren beinhaltet.
Das erste ist die interne Struktur im Ausgangszustand, das zweite sind die Eingabedaten und das dritte ist das universelle Naturgesetz.
„Es stellt sich heraus, dass angeborene Strukturen in jedem Bereich, den wir entdecken, eine bemerkenswerte Rolle spielen.“
Bei dem, was als klassische Beispiele des Lernens gilt, wie dem Erlernen einer Sprache, werden Sie feststellen, dass Sie, wenn Sie anfangen, sie auseinanderzunehmen dass die Daten nahezu keinen Einfluss darauf haben.
Die Sprache hat sich seit Anbeginn der Menschheit nicht verändert, wie die Tatsache zeigt, dass jedes Kind in jeder Kultur sie beherrschen kann.
George glaubt, dass Sprache zum Kern der künstlichen Intelligenz werden wird und uns die Möglichkeit geben wird, herauszufinden, was den Menschen zu einer so einzigartigen Spezies macht.
Professor für Informatik an der University of Washington Yejin Choi prognostiziert, dass die Leistung der KI in den nächsten Jahren immer erstaunlicher werden wird.
Aber da wir die Tiefe des Netzwerks nicht kennen, werden sie weiterhin Fehler bei kontradiktorischen und Eckfällen machen.
„Für Maschinen mag die dunkle Materie der Sprache und Intelligenz gesunder Menschenverstand sein.“
Natürlich ist die hier erwähnte dunkle Materie etwas, das für Menschen einfach, für Maschinen jedoch schwierig ist.
Marcus sagte, dass wir jetzt eine große Menge an Wissen aus großen Sprachmodellen gewinnen können, aber tatsächlich muss dieses Paradigma transformiert werden. Weil dem Sprachmodell tatsächlich mehrere Eingabetypen „entzogen“ sind.
Jürgen Schmidhuber, Direktor des Schweizer Labors für künstliche Intelligenz IDSIA und Vater von LSTM, antwortete: „Das meiste, was wir heute besprochen haben, wurde zumindest im Prinzip schon vor vielen Jahren durch ‚universelle neuronale Netze‘ gelöst.“ Das System sei „weniger als menschlich“.
Schmidhuber sagte, dass die „alte Theorie“ zurückkehre, da die Rechenleistung alle paar Jahre billiger werde. „Wir können mit diesen alten Algorithmen viele Dinge machen, die wir damals nicht konnten.“
In dieser Hinsicht ist es vor allem eine Frage des Rechenaufwands:
Aspekte Erstens kann es auch Lernalgorithmen lernen. Die große Frage ist, welche Algorithmen kann es lernen? Möglicherweise brauchen wir bessere Algorithmen. Optionen zur Verbesserung von Lernalgorithmen. Das erste derartige System erschien 1992. Meine erste Arbeit habe ich 1992 geschrieben. Damals konnten wir wenig dagegen tun. Heute können wir Millionen und Abermilliarden von Gewichten haben.
Die jüngste Arbeit mit meinen Studenten hat gezeigt, dass diese alten Konzepte, mit ein paar Verbesserungen hier und da, plötzlich richtig gut funktionieren und man neue Lernalgorithmen erlernen kann, die besser sind als Backpropagation.
Jeff Clune, außerordentlicher Professor an der University of British Columbia
Jeff Clune, außerordentlicher Professor für Informatik an der University of British Columbia, diskutierte das Thema „AI-generierende Algorithmen: Der schnellste Weg zur AGI“.Clune sagte, dass die heutige künstliche Intelligenz einem „künstlichen Weg“ folgt, was bedeutet, dass verschiedene Lernregeln, Zielfunktionen usw. manuell von Menschen ausgeführt werden müssen.
In diesem Zusammenhang glaubt er, dass in der zukünftigen Praxis manuelle Entwurfsmethoden irgendwann der automatischen Generierung weichen werden.
Anschließend schlug Clune die „drei Säulen“ vor, um die Entwicklung der KI zu fördern: Meta-Lernarchitektur, Meta-Lernalgorithmen und die automatische Generierung effektiver Lernumgebungen und Daten.
Hier empfiehlt Clune die Hinzufügung einer „vierten Säule“, nämlich der „Nutzung menschlicher Daten“. Beispielsweise können Modelle, die in der Minecraft-Umgebung laufen, „enorme Verbesserungen“ erzielen, indem sie aus Videos von Menschen lernen, die das Spiel spielen.
Abschließend sagt Clune voraus, dass wir bis 2030 eine Chance von 30 % haben, AGI zu erreichen, und dafür ist kein neues Paradigma erforderlich.
Es ist erwähnenswert, dass AGI hier als „die Fähigkeit, mehr als 50 % der wirtschaftlich wertvollen menschlichen Arbeit zu erledigen“ definiert wird.
Um es zusammenzufassen
Am Ende der Diskussion forderte Marcus alle Teilnehmer auf, innerhalb von 30 Sekunden eine Frage zu beantworten: „Wenn Sie den Schülern zum Beispiel einen Rat geben können, welches Problem der künstlichen Intelligenz wir am meisten untersuchen müssen.“ Oder wie kann man sich auf eine Welt vorbereiten, in der künstliche Intelligenz immer mehr zum Mainstream wird und in den Mittelpunkt rückt? der wirklichen Hauptherausforderungen, vor denen wir stehen, und gehen dabei auf Herausforderungen wie Robustheit, Verallgemeinerung und Interpretierbarkeit im weiteren Sinne ein.“ George gab Ratschläge aus der Perspektive der Forschungsrichtung: „Bestimmen Sie zunächst den Umfang, in dem Sie sich engagieren möchten. Chemische Forschung oder Grundlagenforschung, weil sie haben unterschiedliche Flugbahnen.“Clune: „AGI kommt. Daher ermutige ich Forscher, die KI entwickeln, sich mit Technologien zu befassen, die auf Technik, Algorithmen, Meta-Learning, End-to-End-Lernen usw. basieren, da diese am wahrscheinlichsten sind in die von uns geschaffene AGI eingebunden werden. Für Nicht-KI-Forscher ist die Governance vielleicht das Wichtigste. Und wie bringen wir Forscher auf der ganzen Welt dazu, diese Regeln zu befolgen?
Marcus schloss den Abend mit einer Erinnerung an das, was er bei der vorherigen Debatte gesagt hatte: „Es braucht ein Dorf, um künstliche Intelligenz aufzubauen.“
„Ich denke, das trifft jetzt noch mehr zu“, sagte er. „KI war vorher ein Kind, aber jetzt ist es ein bisschen wie ein wilder Teenager, der noch kein reifes Urteilsvermögen entwickelt hat.“ Er kam zu dem Schluss: „Dieser Moment ist sowohl aufregend als auch gefährlich.“
Das obige ist der detaillierte Inhalt von16 Top-Wissenschaftler diskutieren über AGI! Marcus, der Vater von LSTM und MacArthur Genius Grant-Gewinner, versammelte sich. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!