Nachdem ChatGPT populär wurde, stiegen große Unternehmen wie Microsoft, Google und Meta in das Spiel ein.
Folglich haben die Menschen auch Bedenken hinsichtlich seiner weit verbreiteten Anwendung geäußert.
Der frühere Alphabet-Geschäftsführer Eric Schmidt und andere Co-Autoren sagten in einem von WSJ veröffentlichten Artikel:
Generative künstliche Intelligenz stellt philosophische und praktische Herausforderungen dar, die es seit der Aufklärung nicht mehr gegeben hat.
Erst gestern veröffentlichte Sam Altman, CEO von OpenAI, einen Artikel, in dem er die aktuellen und Folgepläne von OpenAI für allgemeine künstliche Intelligenz (AGI) darlegte.
Der Artikel betont, dass die Mission von OpenAI darin besteht, sicherzustellen, dass AGI der gesamten Menschheit zugute kommt.
OpenAI-Vision: Sicherstellen, dass AGI der gesamten Menschheit zugute kommt
In dem Artikel werden die drei Prinzipien vorgestellt, die OpenAI am meisten am Herzen liegen.
Wenn AGI letztendlich erfolgreich aufgebaut wird, wird diese Technologie nicht nur mehr Möglichkeiten bringen und die globale Wirtschaftsentwicklung fördern, sondern auch die Entdeckung neuer wissenschaftlicher Erkenntnisse verändern und den Menschen helfen, ihren Lebensstandard in allen Aspekten zu verbessern.
AGI kann jedem unglaubliche neue Fähigkeiten verleihen.
In einer Welt, in der AGI in greifbarer Nähe ist, kann jeder Hilfe bei fast allen kognitiven Fähigkeiten erhalten, und AGI kann zu einem riesigen Leistungsverstärker für die menschliche Intelligenz und Kreativität werden.
Aber andererseits, so befürchten manche Menschen, kann allgemeine künstliche Intelligenz auch zu schwerem Missbrauch, Unfällen und sozialem Chaos führen.
Allerdings können wir die Krankheit nicht verbergen und zulassen, dass die Gesellschaft für immer aufhört, sich weiterzuentwickeln, im Gegenteil, die Gesellschaft und die AGI-Entwickler müssen Wege finden, es gut zu machen.
Das zukünftige Bild des Lebens mit allgemeiner künstlicher Intelligenz ist schwer vorherzusagen, und der aktuelle Fortschritt der KI könnte auf neue Herausforderungen stoßen. Aufgrund des Erfolgs von ChatGPT haben wir jedoch einige Grundsätze aufgelistet, die dem Unternehmen am meisten am Herzen liegen:
1 Ich hoffe, AGI kann Menschen stärken und ihnen ermöglichen, maximalen Wohlstand im Universum zu erreichen. Wir wollen nicht, dass die Zukunft zu einer falschen Utopie wird, aber wir hoffen, die guten Seiten der Technologie zu maximieren und die schlechten Seiten zu minimieren, damit AGI zu einem Verstärker des menschlichen guten Willens werden kann.
2. Ich hoffe, die Vorteile, den Zugang und die Governance von AGI auf faire Weise breiter zu teilen.
3. Reagieren Sie richtig auf potenzielle Risiken. Angesichts dieser Risiken lässt sich das, was in der Theorie richtig erscheint, in der Praxis oft schwieriger kontrollieren als erwartet. Wir müssen weiter lernen und uns anpassen, indem wir weniger leistungsstarke Versionen der Technologie einsetzen, um den „Point of no Return“ zu minimieren.
Kurzfristig plant OpenAI also, die folgenden Dinge zu tun.
Da das Unternehmen weiterhin leistungsfähigere KI-Systeme baut, hoffen wir zunächst, AGI schnell einsetzen zu können, um entsprechende Anwendungserfahrung zu sammeln.
Nach Ansicht von OpenAI sollte der beste Weg, AGI sorgfältig zu verwalten, darin bestehen, schrittweise in eine Welt überzugehen, in der AGI allgegenwärtig ist. Wir gehen davon aus, dass die leistungsstarke Technologie der künstlichen Intelligenz in Zukunft die Geschwindigkeit des weltweiten Fortschritts beschleunigen kann
Der schrittweise Ansatz ermöglicht es der Öffentlichkeit, politischen Entscheidungsträgern und Forschungseinrichtungen, Zeit zu haben, die durch die AGI-Technologie hervorgerufenen Veränderungen zu verstehen und die Vorteile und Mängel persönlich zu erleben Anpassung der Wirtschaftsorganisation und Einführung einer wirksamen Aufsicht.
Gleichzeitig kann die schrittweise Entwicklungsmethode auch den gemeinsamen Fortschritt von Gesellschaft und KI fördern und es den Menschen ermöglichen, sich selbst mit relativ geringen Risiken zu verstehen.
OpenAI ist davon überzeugt, dass der beste Weg zur erfolgreichen Lösung von Herausforderungen bei KI-Anwendungen darin besteht, eine enge Rückkopplungsschleife aus schnellem Lernen und sorgfältiger Iteration einzusetzen. Unter dem Einfluss neuer Technologien wird die Gesellschaft vor großen Fragen stehen, wie zum Beispiel: „Was dürfen künstliche Intelligenzsysteme tun, wie können Vorurteile beseitigt werden und wie kann mit Arbeitsplatzverlusten umgegangen werden?“
Der verstärkte Einsatz von KI-Technologie ist von großem Nutzen, und OpenAI hofft, zur Förderung dieser Technologie beitragen zu können, indem Modelle in Service-APIs integriert und als Open Source bereitgestellt werden.
OpenAI sagte, dass die Agentur sowohl bei der Erstellung als auch bei der Bereitstellung von Modellen immer vorsichtiger geworden sei, je näher die von ihr entwickelten Systeme an AGI heranrücken.
OpenAI muss die Vor- und Nachteile der Verwendung großer Modelle abwägen. Einerseits stellt der Einsatz fortschrittlicher Großmodelle einen wichtigen wissenschaftlichen und technologischen Fortschritt dar; andererseits müssen Unternehmen und Institutionen nach der Nutzung der Modelle auch Fragen wie die Eindämmung böswilliger Akteure und die Vermeidung nachteiliger Auswirkungen berücksichtigen Gesellschaft und Wirtschaft.
Zweitens arbeitet OpenAI hart daran, konsistentere und kontrollierbarere Modelle zu erstellen. Von der ersten Version von GPT-3 bis hin zu InstructGPT und ChatGPT zeigt diese schrittweise Transformation die Bemühungen von OpenAI im Bereich der KI-Sicherheit.
Es ist erwähnenswert, dass die menschliche Gesellschaft beim Einsatz künstlicher Intelligenz extrem weite Grenzen überschreiten muss. Da die Modelle immer leistungsfähiger werden, muss OpenAI neue Ausrichtungstechniken entwickeln.
Der kurzfristige Plan von OpenAI besteht darin, KI zu nutzen, um Menschen dabei zu helfen, die Ausgabe komplexerer Modelle zu bewerten und komplexe Systeme zu überwachen. Langfristig wird OpenAI KI nutzen, um eine bessere Ausrichtungstechnologie zu erhalten.
OpenAI ist davon überzeugt, dass Sicherheit und Fähigkeiten der künstlichen Intelligenz gleichermaßen wichtig sind und beide nicht getrennt diskutiert werden sollten. Laut OpenAI kommt die sicherste Arbeit von den leistungsfähigsten Modellen. Mit anderen Worten: Die Verbesserung der Sicherheit künstlicher Intelligenz ist für den Fortschritt der KI-Forschung von großer Bedeutung.
Drittens hofft OpenAI, drei Schlüsselprobleme auf globaler Ebene zu lösen: die Steuerung künstlicher Intelligenzsysteme, die Verteilung der durch KI-Systeme generierten Vorteile und die gemeinsame Nutzung von Zugriffsrechten.
Darüber hinaus muss OpenAI gemäß der OpenAI-Unternehmenssatzung andere Organisationen bei der Verbesserung der Sicherheit unterstützen und kann bei der späteren Entwicklung von AGI nicht mit Konkurrenten konkurrieren.
Die OpenAI-Investitionsregeln legen eine Obergrenze für die Renditen fest, die Aktionäre erhalten können, damit die Forschungseinrichtungen selbst nicht in Versuchung geraten, mithilfe von Technologien mit katastrophalen Gefahren zu versuchen, Werte ohne Grenzen oder Risiken zu erzielen.
OpenAI wird von einer gemeinnützigen Organisation geleitet, um sicherzustellen, dass die Institution zum Wohle der Menschheit geführt wird und Vorrang vor allen gewinnorientierten Interessen hat.
Abschließend ist OpenAI der Ansicht, dass Regierungen weltweit die Überwachung von Schulungen zum maschinellen Lernen über einen bestimmten Umfang hinaus aufrechterhalten sollten.
Im Vergleich zu kurzfristigen Plänen ist die langfristige Entwicklung von AGI durch OpenAI ehrgeiziger.
OpenAI glaubt, dass die Zukunft der Menschheit von den Menschen selbst bestimmt werden sollte, und es ist von entscheidender Bedeutung, Informationen über den Fortschritt mit der Öffentlichkeit zu teilen. Daher sollten alle AGI-Entwicklungsprojekte einer strengen Prüfung unterzogen und die Öffentlichkeit bei wichtigen Entscheidungen konsultiert werden.
Aus Sicht von OpenAI wird das erste AGI nur ein kleiner Knotenpunkt in der kontinuierlichen Weiterentwicklung der künstlichen Intelligenz sein, aus dem dann weiterhin neue Fortschritte abgeleitet werden. Das Unternehmen prognostiziert, dass die zukünftige Entwicklung der KI möglicherweise dem Tempo des Fortschritts ähnelt, den wir im letzten Jahrzehnt seit langem erleben.
Vielleicht wird die Welt eines Tages weltbewegende Veränderungen erleben, und der technologische Fortschritt kann auch große Risiken für die Menschheit mit sich bringen. Eine „fehlplatzierte“ superintelligente AGI könnte der Welt ernsthaften Schaden zufügen.
Deshalb glaubt OpenAI, dass es einfacher ist, die Sicherheit zu gewährleisten, indem man die Entwicklung von AGI verlangsamt. Auch wenn uns der technologische Fortschritt die Möglichkeit gibt, AGI schnell zu entwickeln, gibt die Beibehaltung einer Verlangsamung der Gesellschaft genügend Zeit, sich anzupassen.
Der erfolgreiche Übergang zu einer Welt mit Superintelligenz ist möglicherweise das wichtigste, vielversprechendste und schrecklichste Projekt in der Geschichte der Menschheit. Niemand kann garantieren, wann dieser Tag kommen wird, aber die Einsätze sind klar und tragen dazu bei, alle zusammenzubringen.
Egal was passiert, es wird eine Welt sein, die unvorstellbar wohlhabend ist. Und OpenAI hofft, der Welt eine allgemeine künstliche Intelligenz beizutragen, die diesem Wohlstand entspricht.
Kürzlich haben der ehemalige US-Außenminister Henry Kissinger, der ehemalige Alphabet-Geschäftsführer Eric Schmidt und der erste Dekan der MIT Schwarzman School of Computing Daniel Huttenlocher einen Artikel mit dem Titel „ChatGPT kündigt eine intellektuelle Revolution an“ geschrieben.
Der Artikel offenbart ihre Bedenken hinsichtlich der aktuellen generativen KI:
Generative KI stellt philosophische und praktische Herausforderungen dar, die es seit der Aufklärung nicht mehr gegeben hat.
Der Anfang des Artikels erläutert die aktuellen Auswirkungen von ChatGPT auf den Menschen.
Eine neue Technologie, die die kognitiven Prozesse des Menschen verändern soll, da sie seit der Erfindung des Buchdrucks nie ins Wanken geraten ist.
Die Technologie des Drucks der Gutenberg-Bibel im Jahr 1455 ermöglichte eine weite und schnelle Verbreitung abstrakter menschlicher Ideen. Doch die heutige neue Technologie kehrt diesen Prozess um.
Die Druckmaschine führte zur Verbreitung des modernen menschlichen Denkens, und neue Technologien ermöglichten seine Verfeinerung und Weiterentwicklung.
Dabei entsteht eine Lücke zwischen menschlichem Wissen und menschlichem Verständnis.
Wenn wir diesen Übergang erfolgreich meistern wollen, müssen wir neue Konzepte des menschlichen Geistes und der Interaktion mit Maschinen erfinden. Dies ist die grundlegende Herausforderung im Zeitalter der künstlichen Intelligenz.
Diese neue Technologie wird generative künstliche Intelligenz genannt und die repräsentativste davon ist ChatGPT, das vom OpenAI Research Laboratory entwickelt wurde.
Mit zunehmender Verbreitung ihrer Fähigkeiten werden sie das menschliche Wissen neu definieren, Veränderungen im Gefüge unserer Realität beschleunigen und Politik und Gesellschaft neu organisieren.
Generative künstliche Intelligenz wird auch einen revolutionären Weg für die menschliche Rationalität eröffnen und neue Horizonte für die Konsolidierung von Wissen eröffnen.
Aber es gibt auch offensichtliche Unterschiede zwischen den beiden. Erleuchtungswissen wird Schritt für Schritt erlangt, jeder Schritt ist messbar und lehrbar.
KI-Systeme wie ChatGPT können große Mengen vorhandener Informationen speichern und verfeinern und sind in der Lage, Ergebnisse auszugeben, ohne ihre Prozesse zu erklären, was Menschen nicht können.
Darüber hinaus sind die Fähigkeiten der künstlichen Intelligenz nicht statisch, sondern nehmen mit der Weiterentwicklung der Technologie exponentiell zu.
Wir müssen dringend eine ausgefeilte Dialektik entwickeln, die es den Menschen ermöglicht, die Interaktivität der generativen KI in Frage zu stellen und die Antworten der KI nicht nur zu rechtfertigen oder zu erklären, sondern sie auch zu hinterfragen.
Mit einer konsequenten Portion Skepsis sollten wir lernen, KI methodisch zu erforschen und zu beurteilen, ob und inwieweit ihre Antworten vertrauenswürdig sind. Dies erfordert bewusste Bemühungen, unsere unbewussten Vorurteile abzubauen, strenges Training und viel Übung.
Die Frage bleibt: Können wir schnell genug lernen, herauszufordern, anstatt zu gehorchen? Oder müssen wir irgendwann gehorchen? Sind das, was wir als Fehler wahrnehmen, Teil einer absichtlichen Gestaltung? Was ist, wenn künstliche Intelligenz bösartige Elemente enthält?
Eine weitere wichtige Aufgabe besteht darin, darüber nachzudenken, welche Probleme dem menschlichen Denken überlassen werden müssen und welche Probleme automatisierten Systemen ausgesetzt werden können.
Allerdings beweist ChatGPT trotz erhöhter Skepsis und Befragungstechniken, dass der Geist der generativen Technologie die Flasche verlassen hat. Wir müssen über die Fragen, die wir stellen, nachdenken.
Mit zunehmendem Verständnis dieser Technologie wird sie tiefgreifende Auswirkungen auf die internationalen Beziehungen haben. Wenn die Technologie des Wissens nicht allgemein verbreitet wird, könnte sich der Imperialismus auf die Beschaffung und Monopolisierung von Daten konzentrieren, um die neuesten Fortschritte in der künstlichen Intelligenz zu erzielen.
Das Modell kann basierend auf den gesammelten Daten unterschiedliche Ergebnisse liefern. Auf der Grundlage zunehmend unterschiedlicher Wissensgrundlagen und damit unterschiedlicher Wahrnehmungen von Herausforderungen dürften sich unterschiedliche Entwicklungen von Gesellschaften entwickeln.
Am Ende des Artikels werden zwei Fragen zum Nachdenken aufgeworfen:
Was passiert, wenn diese Technologie nicht vollständig kontrolliert werden kann?
Was wäre, wenn es immer eine Möglichkeit gäbe, Lügen zu erfinden, gefälschte Bilder und Videos zu erstellen und die Menschen nie lernen, nicht zu glauben, was sie sehen und hören?
Meta-Chef-KI-Wissenschaftler LeCun antwortete:
- Die Menschen werden lernen, Quellen besser zu verfolgen und die Zuverlässigkeit dessen zu bewerten, was sie sehen und hören, höchstwahrscheinlich mithilfe neuer Technologien.
– Aktuelle autoregressive LLMs sind notorisch unkontrollierbar, aber neue KI-Systeme sind kontrollierbar, realistisch und bei Bedarf ungiftig.
Einige Internetnutzer zitierten Andy Groves Worte: „Es gibt zwei Möglichkeiten: sich anpassen oder sterben.“
Was würdest du tun, wenn du es wäre?
Referenzen:
https://openai.com/blog/planning-for-agi-and-beyond/
https://www.wsj.com/articles/chatgpt-heralds-an-intellectual-revolution - enlightenment-artificial-intelligence-homo-technicus-technology-cognition-morality-philosophy-774331c6
https://twitter.com/ericschmidt/status/1629361652574621701
Das obige ist der detaillierte Inhalt vonChatGPT löst eine intellektuelle Revolution aus! OpenAI veröffentlicht AGI-Roadmap, die letztendlich zu einer superintelligenten Welt führt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!