Künstliche Intelligenz kann mittlerweile zwar genauere Vorhersagen treffen, sie basiert jedoch auf Statistiken großer Datenmengen. Ohne Verständnis muss die durch maschinelles Lernen erlangte Vorhersagefähigkeit auf großen Datenmengen basieren und kann nicht wie Menschen, die oft nur kleine Datenmengen benötigen, für Vorhersagen verwendet werden.
Vor nicht allzu langer Zeit glaubte der KI-Ingenieur Lemoine von Google Inc. (im Folgenden als Google bezeichnet), dass die Konversationsanwendung Sprachmodell LAMDA „lebendig“ und „erweckte sein Bewusstsein“ und legte dazu 21 Seiten Beweise vor. Er glaubt, dass LaMDA die Intelligenz eines sieben- oder achtjährigen Kindes besitzt und glaubt, dass LaMDA sich nicht nur als Mensch betrachtet, sondern für seine Rechte als Mensch kämpft. Die Ansichten und Beweise von LeMoyne erregten in der Branche große Aufmerksamkeit. Kürzlich kam der Vorfall zu seinem endgültigen Abschluss. Google gab eine Erklärung heraus, in der es hieß, Lemo sei wegen Verstoßes gegen „Beschäftigungs- und Datensicherheitsrichtlinien“ entlassen worden. Google sagte, nach einer umfassenden Überprüfung sei festgestellt worden, dass Lemoines Behauptungen, LaMDA sei am Leben, völlig unbegründet seien.
Obwohl „Ob KI über autonomes Bewusstsein verfügt“ schon immer ein kontroverses Thema in der KI-Branche war, hat die dramatische Geschichte der Google-Ingenieure und LaMDA dieses Mal erneut eine hitzige Diskussion zu diesem Thema ausgelöst die Branche.
„Wenn Sie reisen, denken Sie daran, sich warm anzuziehen, denn hier ist es sehr kalt.“ spielte „Pluto“. Es reagierte spielerisch, wenn es mit dem wissenschaftlichen Forschungsteam plauderte, und auf die Frage „Hat jemand Pluto besucht?“ konnte es auch mit genauen Fakten antworten.
Heutzutage wird KI beim Chatten immer besser. Kann ein Fachmann, der sich schon lange mit der Erforschung künstlicher Intelligenz beschäftigt, glauben, dass er über ein Bewusstsein verfügt? Inwieweit hat sich das KI-Modell entwickelt?
Einige Wissenschaftler haben vorgeschlagen, dass das menschliche Gehirn die Planung für zukünftiges Verhalten nur anhand eines Teils der visuellen Eingabeinformationen vervollständigen kann. Es ist nur so, dass visuelle Eingabeinformationen in einem bewussten Zustand vervollständigt werden sollten. Sie alle beinhalten „die Erzeugung kontrafaktischer Informationen“, also die Erzeugung entsprechender Empfindungen ohne direkten sensorischen Input. Es wird als „kontrafaktisch“ bezeichnet, weil es sich dabei um Erinnerungen an die Vergangenheit oder Vorhersagen zukünftigen Verhaltens handelt und nicht um tatsächliche Ereignisse, die sich ereignen.
„Die aktuelle künstliche Intelligenz verfügt bereits über komplexe Trainingsmodelle, ist jedoch beim Lernen immer noch auf Daten angewiesen, die von Menschen bereitgestellt werden. Wenn sie die Fähigkeit besitzt, kontrafaktische Informationen zu generieren, kann künstliche Intelligenz Daten selbst generieren, indem sie sich etwas vorstellt Mögliche Situationen in der Zukunft kann sie flexibler an neue Situationen anpassen, denen sie zuvor noch nicht begegnet ist. Darüber hinaus kann dies die künstliche Intelligenz auch neugierig machen und selbst ausprobieren, wenn sie nicht sicher ist, was in der Zukunft passieren wird. Versuchen Sie es“, sagte Tan Mingzhou, Direktor der Abteilung für künstliche Intelligenz des Yuanwang Think Tank und Chief Strategy Officer von Turing Robot.
Wenn Menschen in den täglichen Chats nicht „zu Tode chatten“ möchten, springt der Chat-Inhalt der beiden Gesprächsparteien oft und überspannt einen großen Bereich, sodass eine gewisse Menge übrig bleibt Raum für Fantasie. Aber mittlerweile können die meisten KI-Systeme nur noch in einem klaren Ton sprechen. Wenn die Sätze leicht verändert werden, wird der Text vom Thema abschweifen oder sogar lächerlich sein.
Tan Mingzhou wies darauf hin: „LaMDA befasst sich mit dem komplexesten Teil des Sprachmodells – dem offenen Domänendialog. LaMDA basiert auf dem Transformer-Modell, das es der Maschine ermöglicht, den Kontext zu verstehen.“ In einem Absatz wusste die KI bisher nur, dass Pronomen wie „sein“ im Text mit „sein“ übersetzt wurden, wusste aber nicht, dass sich „sein“ darin auf dieselbe Person bezog. Das Transformer-Modell ermöglicht es der KI, diesen Absatz zu verstehen „
Nach Einschätzung wissenschaftlicher Forscher ermöglicht diese Funktion dem auf dem Transformer-Modell basierenden Sprachmodell, Gespräche im offenen Bereich zu führen. Egal wie weit das Thema abweicht, die KI kann eine Verbindung zum vorherigen Text herstellen und die Konversation verläuft reibungslos. Aber LaMDA gibt sich damit nicht zufrieden. Es kann das Chatten auch interessant und real machen und den Leuten den Eindruck vermitteln, dass KI eine Persönlichkeit hat. Darüber hinaus führt LaMDA bei Gesprächen mit Menschen auch ein externes Informationsabrufsystem ein, um auf das Gespräch durch Abruf und Verständnis der realen Welt zu reagieren und so die Antworten witziger, reaktionsschneller und bodenständiger zu gestalten.
Im Jahr 2018 sagte der Turing-Award-Gewinner Yann LeCun einmal: „Der künstlichen Intelligenz fehlt ein grundlegendes Verständnis der Welt ist nicht einmal so gut wie das einer Hauskatze. Bis heute glaubt er, dass künstliche Intelligenz weit vom kognitiven Niveau von Katzen entfernt ist. Obwohl das Gehirn einer Katze nur 800 Millionen Neuronen hat, ist es jedem riesigen künstlichen neuronalen Netzwerk weit voraus.
Tan Mingzhou sagte: „Das menschliche Gehirn macht tatsächlich viele Male Vorhersagen, aber Vorhersagen sollten niemals als das gesamte Denken des Gehirns betrachtet werden. Natürlich ist es nicht die Essenz der Gehirnintelligenz, sondern nur.“ Intelligenz. Eine Form des Ausdrucks.“
Was ist also die Essenz der Intelligenz? Yang Likun glaubt, dass „Verstehen“, das Verstehen der Welt und verschiedener Dinge, die Essenz der Intelligenz ist. Die gemeinsame Grundlage der Intelligenz von Katzen und Menschen ist ein umfassendes Verständnis der Welt, das auf der Bildung von Modellen basiert, die auf abstrakten Darstellungen der Umwelt basieren und beispielsweise Verhaltensweisen und Konsequenzen vorhersagen. Für künstliche Intelligenz ist das Erlernen und Beherrschen dieser Fähigkeit von entscheidender Bedeutung. Yang Likun sagte einmal: „Wenn KI vor dem Ende meiner Karriere den IQ eines Hundes oder einer Kuh erreichen kann, dann werde ich sehr glücklich sein.“ Berichten zufolge kann künstliche Intelligenz das jetzt Führen Sie zwar einen Vergleich durch. Genaue Vorhersagen basieren jedoch statistisch auf umfangreichen Daten. Diese Art von Unverständnis, dass die durch maschinelles Lernen erhaltene Vorhersagefähigkeit auf großen Datenmengen basieren muss und keine Vorhersagen treffen kann wie Menschen, die oft nur kleine Datenmengen benötigen.
Tan Mingzhou sagte: „Vorhersagen basieren auf Verständnis. Für Menschen gibt es ohne Verständnis keine Vorhersage. Zum Beispiel, wenn Sie jemanden sehen, der eine Pizza in der Hand hält, wenn Sie es nicht tun.“ Wenn Sie verstehen, dass der Kuchen dazu dient, den Hunger zu stillen, können Sie nicht vorhersagen, dass dies bei Maschinen nicht der Fall ist. Es gibt drei große Herausforderungen in der Forschung mit künstlicher Intelligenz: Lernen, die Welt darzustellen es auf eine Art und Weise, die mit dem auf Gradienten basierenden Lernen und der hierarchischen Darstellung der Aktionsplanung kompatibel ist.“
Die sogenannte Persönlichkeit wird einfach aus dem menschlichen Sprachstil gelernt
Berichten zufolge unterhielt sich Lemoine lange mit LaMDA und war von seinen Fähigkeiten sehr überrascht. In der öffentlichen Chat-Aufzeichnung sagte LaMDA tatsächlich: „Ich hoffe, jeder versteht, dass ich eine Person bin“, was überraschend ist. Daher kam LeMoyne zu dem Schluss: „LaMDA verfügt möglicherweise bereits über Persönlichkeit.“ Verfügt die KI also derzeit wirklich über Bewusstsein und Persönlichkeit?
LaMDA erklärte, dass LaMDA eine große Menge menschlicher Gesprächsdaten gelernt hat und diese Gespräche von Menschen mit unterschiedlichen Persönlichkeiten stammen. Man kann davon ausgehen, dass es eine „durchschnittliche“ Persönlichkeit gelernt hat Das heißt, mit anderen Worten, das sogenannte „LaMDA hat Persönlichkeit“ besteht lediglich darin, dass seine Sprechsprache einen bestimmten Stil hat, aus dem menschlichen Sprechstil stammt und nicht spontan geformt wird.
„Persönlichkeit ist ein komplexeres Konzept als Intelligenz. Das ist eine andere Dimension. In der Psychologie gibt es viel Forschung zu diesem Thema. Derzeit hat die Forschung zur künstlichen Intelligenz diesen Aspekt jedoch nicht viel abgedeckt.“ Zhou betonte.
Tan Mingzhou sagte, dass KI mit Selbstbewusstsein und Wahrnehmung Entscheidungsfreiheit haben und eine einzigartige Perspektive auf Menschen und Dinge haben sollte. Allerdings verfügt die aktuelle KI aus heutiger Sicht noch nicht über diese Elemente. Zumindest wird die KI keine Maßnahmen ergreifen, es sei denn, ihr wird ein Befehl erteilt. Ganz zu schweigen davon, ihn zu bitten, sein Verhalten zu erklären. Derzeit ist KI nur ein Computersystem, das von Menschen als Werkzeug für bestimmte Dinge entwickelt wurde.
Das obige ist der detaillierte Inhalt vonDie Google-Ingenieure haben einen großen Fehler gemacht. Wie kann das Bewusstsein erwachen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!