Um ein wirkliches Verständnis der künstlichen Intelligenz zu erlangen, sollten Forscher ihre Aufmerksamkeit auf die Entwicklung einer grundlegenden, zugrunde liegenden AGI-Technologie richten, die das menschliche Verständnis der Umwelt nachbilden kann.
Branchenriesen wie Google, Microsoft und Facebook, Forschungslabore wie Elon Musks OpenAI und sogar Plattformen wie SingularityNET setzen alle auf künstliche allgemeine Intelligenz (AGI) – die Fähigkeit intelligenter Agenten, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die Menschen nicht können Dies ist die Zukunft der künstlichen Intelligenz.
Es ist jedoch etwas überraschend, dass sich keines dieser Unternehmen auf die Entwicklung einer grundlegenden AGI-Technologie auf niedrigem Niveau konzentriert, die das menschliche Kontextverständnis nachbildet. Dies könnte erklären, warum die Forschung dieser Unternehmen ausschließlich auf intelligenten Modellen mit unterschiedlichem Spezifitätsgrad und auf den heutigen Algorithmen der künstlichen Intelligenz basiert.
Leider führt diese Abhängigkeit dazu, dass KI im besten Fall nur Intelligenz aufweisen kann. So beeindruckend ihre Fähigkeiten auch sein mögen, sie folgen dennoch einem vorgegebenen Skript, das viele Variablen enthält. Daher können selbst große, hochkomplexe Programme wie GPT3 oder Watson nur Verständnis demonstrieren. Tatsächlich verstehen sie nicht, dass Wörter und Bilder physische Dinge darstellen, die im physischen Universum existieren und miteinander interagieren. Der Begriff der Zeit oder die Vorstellung, dass eine Ursache eine Wirkung hat, ist ihnen völlig fremd.
Damit sollen die Fähigkeiten der heutigen künstlichen Intelligenz nicht beeinträchtigt werden. Google beispielsweise ist in der Lage, riesige Informationsmengen unglaublich schnell zu durchsuchen, um (zumindest in den meisten Fällen) die gewünschten Ergebnisse zu liefern. Persönliche Assistenten wie Siri können in Echtzeit Restaurantreservierungen vornehmen, E-Mails finden und lesen sowie Anweisungen geben. Diese Liste wird ständig erweitert und verbessert.
Aber egal wie ausgefeilt diese Programme sind, sie suchen immer noch nach Eingaben und reagieren mit spezifischen Ausgaben, die vollständig von ihrem Kerndatensatz abhängen. Wenn Sie nicht überzeugt sind, stellen Sie einem Kundenservice-Bot eine „ungeplante“ Frage, und der Bot generiert möglicherweise eine bedeutungslose oder gar keine Antwort.
Kurz gesagt, Google, Siri oder jedem anderen aktuellen Beispiel für KI fehlt es an echtem, gesundem Menschenverstand, was sie letztendlich daran hindern wird, sich der künstlichen allgemeinen Intelligenz zuzuwenden. Der Grund geht auf die vorherrschende Annahme zurück, die den meisten KI-Entwicklungen der letzten 50 Jahre zugrunde liegt: Wenn schwierige Probleme gelöst werden können, werden auch einfache Intelligenzprobleme gelöst. Diese Hypothese kann als Moravecs Paradoxon beschrieben werden, das besagt, dass es relativ einfach wäre, Computer dazu zu bringen, Intelligenztests auf Erwachsenenniveau durchzuführen, ihnen aber die Wahrnehmungs- und Handlungsfähigkeiten eines einjährigen Babys zu verleihen. Die Fähigkeiten sind schwierig .
KI-Forscher liegen auch falsch in ihrer Annahme, dass, wenn genügend schmale KI-Anwendungen gebaut werden, diese schließlich zu allgemeiner Intelligenz zusammenwachsen. Im Gegensatz zu der Art und Weise, wie Kinder Sehvermögen, Sprache und andere Sinne mühelos integrieren können, können eng gefasste KI-Anwendungen Informationen nicht auf allgemeine Weise speichern, so dass die Informationen geteilt und anschließend von anderen KI-Anwendungen genutzt werden können.
Schließlich glauben Forscher fälschlicherweise, dass ein ausreichend großes maschinelles Lernsystem mit ausreichender Computerleistung spontan eine allgemeine Intelligenz aufweisen wird. Auch das erwies sich als falsch. So wie Expertensysteme, die domänenspezifisches Wissen erfassen möchten, nicht genügend Fall- und Beispieldaten erstellen können, um einen zugrunde liegenden Mangel an Verständnis zu überwinden, können KI-Systeme „ungeplante“ Anfragen, unabhängig von ihrer Größe, nicht verarbeiten.
Um ein echtes KI-Verständnis zu erreichen, sollten Forscher ihre Aufmerksamkeit auf die Entwicklung einer grundlegenden, zugrunde liegenden AGI-Technologie richten, die das menschliche Kontextverständnis nachbildet. Denken Sie zum Beispiel an das Situationsbewusstsein und das Situationsverständnis, die ein Dreijähriger beim Spielen mit Bauklötzen an den Tag legt. Dreijährige verstehen, dass Blöcke in einer dreidimensionalen Welt existieren, physikalische Eigenschaften wie Gewicht, Form und Farbe haben und herunterfallen, wenn sie zu hoch gestapelt werden. Kinder verstehen auch die Konzepte von Ursache und Wirkung und den Lauf der Zeit, da Blöcke nicht umgeworfen werden können, bevor sie zuerst gestapelt werden.
Ein 3-Jähriger kann auch ein 4-Jähriger werden, dann ein 5-Jähriger, dann ein 10-Jähriger und so weiter. Einfach ausgedrückt: Dreijährige werden mit Fähigkeiten geboren, zu denen auch die Fähigkeit gehört, sich zu voll funktionsfähigen, im Allgemeinen intelligenten Erwachsenen zu entwickeln. Ein solches Wachstum ist mit der heutigen künstlichen Intelligenz nicht möglich. So ausgefeilt sie auch sein mag, die heutige künstliche Intelligenz ist sich ihrer Existenz in ihrer Umgebung überhaupt nicht bewusst. Es ist nicht bekannt, dass die jetzt ergriffenen Maßnahmen Auswirkungen auf zukünftige Maßnahmen haben.
Während es unrealistisch ist zu glauben, dass ein KI-System, das noch nie etwas anderes als seine eigenen Trainingsdaten erlebt hat, reale Konzepte verstehen kann, könnte das Hinzufügen mobiler sensorischer Pods zur KI es künstlichen Einheiten ermöglichen, aus realen Umgebungen zu lernen und eine zu demonstrieren grundlegendes Verständnis physischer Objekte, Ursache und Wirkung und des Zeitablaufs in der Realität. Wie dieser Dreijährige ist dieses mit Sinneskapseln ausgestattete künstliche Wesen in der Lage, direkt zu lernen, wie man Blöcke stapelt, Objekte bewegt, eine Abfolge von Aktionen im Laufe der Zeit ausführt und aus den Konsequenzen dieser Aktionen lernt.
Durch Sehen, Hören, Berühren, Manipulatoren usw. können künstliche Wesen lernen, auf eine Weise zu verstehen, die mit reinen Text- oder reinen Bildsystemen einfach nicht möglich ist. Wie bereits erwähnt, können solche Systeme einfach nicht verstehen und lernen, egal wie groß und vielfältig ihre Datensätze sind. Sobald ein Wesen diese Fähigkeit zum Verstehen und Lernen erlangt hat, ist es möglicherweise sogar möglich, die Sinneskapseln zu entfernen.
Während wir zum jetzigen Zeitpunkt nicht quantifizieren können, wie viele Daten erforderlich sind, um echtes Verständnis darzustellen, können wir spekulieren, dass es im Gehirn ein vernünftiges Verhältnis zum Verständnis geben muss. Denn der Mensch interpretiert alles im Kontext dessen, was er bereits erlebt und gelernt hat. Als Erwachsene interpretieren wir alles im Sinne dessen, was wir in den ersten Lebensjahren gelernt haben. Vor diesem Hintergrund scheint es, dass echte künstliche allgemeine Intelligenz nur möglich sein wird, wenn die KI-Community diese Tatsache erkennt und die notwendigen Schritte unternimmt, um eine grundlegende Grundlage für das Verständnis zu schaffen.
Das obige ist der detaillierte Inhalt vonDie Zukunft der künstlichen Intelligenz: allgemeine künstliche Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!