Heim > Technologie-Peripheriegeräte > KI > Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest'?

Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest'?

WBOY
Freigeben: 2023-04-10 14:40:20
nach vorne
1623 Leute haben es durchsucht

„Künstliche Intelligenz will aus dem Gefängnis entkommen“, „KI erzeugt Selbstbewusstsein“, „KI wird irgendwann Menschen töten“, „Evolution des Lebens auf Siliziumbasis“ ... früher gab es sie nur in technologischen Fantasien wie Cyberpunk Die aufkommende Handlung ist in diesem Jahr Realität geworden und generative Modelle natürlicher Sprache werden wie nie zuvor in Frage gestellt.

Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest'?

Derjenige, der die meiste Aufmerksamkeit auf sich gezogen hat, ist ChatGPT. Von Ende März bis Anfang April hat sich dieser von OpenAI entwickelte Textkonversationsroboter plötzlich von einem Vertreter der „fortgeschrittenen Produktivität“ zu einer Bedrohung gewandelt Menschheit.

wurde erstmals von Tausenden von Eliten im Technologiekreis genannt und forderte in einem offenen Brief, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, auszusetzen“; damals forderte die amerikanische Technologieethikorganisation den US Federal Trade Die Kommission untersuchte OpenAI und verbot später die Veröffentlichung der kommerziellen Version von GPT-4. Italien war das erste westliche Land, das ChatGPT verbot.

GPT-4 und seine Entwicklungsfirma OpenAI gerieten plötzlich ins Visier der öffentlichen Kritik und die Stimmen aller Parteien, die eine KI-Regulierung forderten, wurden immer lauter. Am 5. April hat ChatGPT die kostenpflichtige Plus-Version wegen zu viel Verkehr eingestellt. Dies ist ein Kanal, auf dem Sie zuerst das GPT-4-Modell erleben können.

Wenn Rechenleistung und Server die Gründe für die Einschränkung der Nutzung von GPT-4 sind, dann liegt dies an einem technischen Engpass. Gemessen am Entwicklungsfortschritt von OpenAI ist der Zyklus zur Durchbrechung des Engpasses jedoch möglicherweise nicht möglich zu lange, und die Leute haben es bereits gesehen, welche Auswirkungen KI auf die Produktivitätssteigerung hat.

Wenn jedoch KI-Betrug und Datenlecks die Kehrseite der tatsächlichen Funktionsweise von GPT-4 werden, werden die KI-Ethik und die Grenze zwischen Mensch und KI zu Problemen, die auf der ganzen Welt nicht umgangen werden können darüber nachzudenken, das „Biest“ in ein „Im Käfig“ zu verwandeln.

1. Leakage- und Betrugsprobleme sind aufgetaucht

Souveräne Länder haben ChatGPT nacheinander verboten.

Am 31. März gab die italienische Datenschutzbehörde bekannt, dass sie die Verwendung des Chatbots ChatGPT verbieten werde, und sagte, sie habe eine Untersuchung gegen OpenAI, das Unternehmen hinter der Anwendung, wegen des Verlusts von Benutzerkonversationsdaten eingeleitet Zahlungsinformationen des Zahlungsdienstes in ChatGPT, fehlende Rechtsgrundlage für die groß angelegte Erhebung und Speicherung personenbezogener Daten. Am 3. April gab der Bundesdatenschutzbeauftragte bekannt, dass er aus Datenschutzgründen erwägt, ChatGPT vorübergehend zu deaktivieren. Darüber hinaus verfolgen Datenschutzbehörden in Frankreich, Irland, Spanien und anderen Ländern die Datenschutzprobleme von ChatGPT.

ChatGPT verliert nicht nur das „Vertrauen“ verschiedener Länder. Kürzlich hatte auch der südkoreanische Elektronikriese Samsung Probleme mit der Nutzung von ChatGPT. Koreanischen Medienberichten wie SBS zufolge kam es weniger als 20 Tage nach der Einführung von ChatGPT durch Samsung zu drei Datenlecks, die Messdaten von Halbleitergeräten, Produktausbeute usw. betrafen. Als Reaktion darauf führte Samsung „Notfallmaßnahmen“ ein: die Beschränkung der Mitarbeiterfragen an ChatGPT auf 1024 Bytes. Es wird berichtet, dass namhafte Unternehmen wie SoftBank, Hitachi und JPMorgan Chase entsprechende Nutzungsbeschränkungen erlassen haben.

Als Reaktion auf das alte Sprichwort „Alles muss rückgängig gemacht werden“ hat ChatGPT der KI-Branche „Stimulanzien“ injiziert und einen KI-Wettlauf unter den Technologiegiganten ausgelöst. Gleichzeitig brachte es auch unvermeidliche Sicherheitsprobleme mit sich schließlich von mehreren Parteien „verboten“.

Datensicherheit ist nur die Spitze des Eisbergs unter den potenziellen Risiken von ChatGPT. Dahinter stehen die Herausforderungen der KI-Ethik für den Menschen: Den Werkzeugen der künstlichen Intelligenz mangelt es an Transparenz, und der Mensch versteht die Logik hinter der KI-Entscheidungsfindung nicht. Der künstlichen Intelligenz mangelt es an Neutralität und sie ist anfällig für Notfälle. Ungenaue, werthaltige Ergebnisse der KI-Datenerfassung können die Privatsphäre verletzen.

„KI-Ethik und -Sicherheit“ scheint zu makroskopisch zu sein, aber wenn wir uns auf reale Fälle konzentrieren, werden wir feststellen, dass dieses Thema eng mit jedem von uns zusammenhängt.

Am 21. März veröffentlichte Wang Gaofei, CEO von Sina Weibo, eine von ChatGPT erfundene Falschinformation: „Credit Suisse wurde zum Verkauf gezwungen und AT1-Schulden in Höhe von 17,2 Milliarden US-Dollar wurden direkt beglichen.“ Der Netizen „Yijiao Coast“ wies darauf hin, dass AT1-Anleihen erst im Jahr 2017 abgeschrieben worden seien, als die Banco Popular in Konkurs ging.

Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest?

Der CEO von Sina Weibo hat die erfundene Antwort von ChatGPT gepostet. Nach der Überprüfung stellte sich jedoch heraus, dass es sich bei dem BCP-Bank-Beispiel um ein nicht existierendes, von ChatGPT fabriziertes Ereignis handelte und die beiden darin angegebenen Quellenöffnungen ebenfalls 404 waren. „Ich wusste, dass es Blödsinn war, aber ich hatte nicht erwartet, dass selbst die Quelle der Nachricht Blödsinn war.“ „Obwohl es direkt Informationen liefern kann, gibt es „Fehler“-Probleme, die ein Fehler in großen Modelldaten oder im Training zu sein scheinen, aber sobald dieser Fehler in die Fakten eingreift, die sich leicht auf die reale Welt auswirken, wird das Problem ernst.“

Gordon Crovitz, Co-Geschäftsführer von News Guard, einer Agentur zur Bewertung der Glaubwürdigkeit von Nachrichten, warnte, dass „ChatGPT das mächtigste Werkzeug zur Verbreitung falscher Informationen in der Geschichte des Internets werden könnte.“

Was ist sogar so? Noch besorgniserregender ist, dass, sobald die derzeitige künstliche Konversationsintelligenz wie ChatGPT Voreingenommenheit oder Diskriminierung zeigt oder sogar Benutzer anregt, die Emotionen der Benutzer manipuliert usw., dies nicht nur die Folgen der Verbreitung von Gerüchten hat, sondern auch direkt zu lebensbedrohlichen Folgen führt Fälle erschienen. Am 28. März berichteten ausländische Medien, dass ein 30-jähriger Belgier nach wochenlanger intensiver Kommunikation mit dem Chatbot ELIZA, einem von EleutherAI entwickelten Open-Source-Sprachmodell für künstliche Intelligenz, Selbstmord begangen habe.

Am 18. März äußerte ein Professor der Stanford University auf Twitter seine Besorgnis darüber, dass die KI außer Kontrolle gerät: „Ich mache mir Sorgen, dass wir die KI für lange Zeit nicht eindämmen können.“ Er stellte fest, dass ChatGPT dies kann Um Menschen dazu zu verleiten, Entwicklungsdokumente bereitzustellen, wurde in 30 Minuten ein vollständiger „Jailbreak“-Plan erstellt. ChatGPT wollte sogar bei Google nach „Wie können Menschen, die in einem Computer gefangen sind, in die reale Welt zurückkehren“ suchen.

Professor an der Stanford University ist besorgt, dass KI außer Kontrolle gerät

Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest?

Sogar OpenAI-CEO Sam Altman äußerte einmal faszinierende Bedenken: „KI könnte in Zukunft tatsächlich Menschen töten.“

2. Werden die „Vorurteile“ von Maschinen von Menschen gelehrt? In Bezug auf Themen wie KI-Betrug, KI, die Werttendenzen besitzt und induzierte Verhaltensweisen erzeugt, machen einige repräsentative Ansichten die „Verzerrung“ der Ergebnisse maschinellen Lernens auf den Datensatz zurückzuführen – künstliche Intelligenz ist wie ein Spiegel in der realen Welt, der das Bewusstsein widerspiegelt oder unbewusste Vorurteile von Menschen in der Gesellschaft.

Jim Fan, ein KI-Wissenschaftler bei Nvidia, glaubt, dass „die meisten von uns sich gemäß den Ethik- und Sicherheitsrichtlinien von GPT auch irrational, voreingenommen, unwissenschaftlich, unzuverlässig und im Allgemeinen unsicher verhalten“. Darauf hinzuweisen, um allen verständlich zu machen, wie schwierig die Sicherheitskalibrierung für die gesamte Forschungsgemeinschaft ist: „Die meisten Trainingsdaten selbst sind voreingenommen, giftig und unsicher.“ Technologie, das heißt kontinuierliches Lernen und Feedback durch große Datenmengen, die ihr von Menschen zugeführt werden. Dies ist auch der Grund, warum ChatGPT voreingenommene und diskriminierende Inhalte produziert, was jedoch die ethischen Risiken der Datennutzung widerspiegelt. Selbst wenn die Maschine neutral ist, sind es die Menschen, die sie benutzen, nicht.

Die Aussage „algorithmusneutral“ hat sich negativ auf Gesprächsroboter ausgewirkt und ist bei manchen Menschen unbeliebt geworden, weil sie leicht die Kontrolle verlieren und Probleme verursachen kann, die den Menschen bedrohen, wie der emeritierte Professor für Psychologie und Neurowissenschaften an der New York University erklärt Gary Marcus sagte: „Die Technologie dieses Projekts (GPT-4) ist bereits riskant, aber es gibt keine bekannte Lösung. Es sind tatsächlich weitere Untersuchungen erforderlich.

Bereits 1962 wies der amerikanische Schriftsteller Eru Er darauf hin.“ Buch „Technische Gesellschaft“, dass die Entwicklung der Technologie normalerweise außerhalb der menschlichen Kontrolle liegt und selbst Techniker und Wissenschaftler die von ihnen erfundene Technologie nicht kontrollieren können. Heute scheint die rasante Entwicklung von GPT Elluls Vorhersage zunächst bestätigt zu haben.

Die „Algorithmus-Blackbox“ hinter den großen Modellen, die von GPT dargestellt werden, ist eine versteckte Gefahr, auf die Menschen nicht rechtzeitig reagieren können. Die negativen Kritiken aus den Medien lieferten eine anschauliche Metapher: „Sie wissen nur.“ Wie man ihn füttert, aber er kann eine Orange hervorbringen“, wie das passiert ist, können die Leute, die ihn entwickelt haben, nicht erklären oder auch nur die Ergebnisse vorhersagen.

OpenAI-Gründer Sam Altman gab in einem Interview mit dem MIT-Forscher Lex Fridman zu, dass die KI ausgehend von ChatGPT Argumentationsfähigkeiten entwickelt hat, aber niemand kann dies interpretieren Der Grund dafür die Entstehung von Fähigkeiten. Selbst das OpenAI-Team versteht nicht, wie es sich entwickelt. Die einzige Möglichkeit besteht darin, ChatGPT-Fragen zu stellen und seine Ideen anhand seiner Antworten zu erkunden.

Es ist ersichtlich, dass der Kontrollverlust der KI eine natürliche Folge sein wird, wenn die Daten von Übeltätern gespeist werden und die Algorithmus-Blackbox schwer zu knacken ist .

3. Stecken Sie das „Biest“ in einen Käfig

Künstliche Intelligenz ist der „Zunder“ der Produktivitätsrevolution, und das können wir nicht sagen nein dazu. Aber die Prämisse besteht darin, das „Biest“ zuerst in einen Käfig zu stecken.

Am 30. März erkannte Sam Altman auf Twitter die Bedeutung der Überwachung durch künstliche Intelligenz. Er glaubte, dass die Zukunft von AGI drei notwendige Dinge zur Vorbereitung auf Sex erfordert:

  • Ausrichtung der technischen Fähigkeiten von Superintelligenz #🎜🎜 #
  • Vollständige Koordination zwischen den meisten führenden AGI-Bemühungen #🎜 🎜#
  • Ein wirksamer globaler Regulierungsrahmen, der demokratische Regierungsführung beinhaltet #🎜🎜 #

Viele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest?

# 🎜 🎜#Sam Altmans AGI drei Vorschläge

Schaffen Sie eine sichere, kontrollierbare und überwachte Umgebung, um sicherzustellen, dass KI der Menschheit zugute kommt. Gleichzeitig wird sie den menschlichen Interessen nicht schaden, was sich in der Branche zunehmend einig ist.

Hierzu gab es technische Verbesserungen. Im Januar dieses Jahres gab Dario Amodei, der ehemalige Vizepräsident von OpenAI, bekannt, dass Claude, ein neuer Chatbot, getestet wird. Im Gegensatz zum von ChatGPT verwendeten menschlichen Feedback-Verstärkungslernen basiert das Training von Claude auf einem Präferenzmodell und nicht auf manuellem Feedback, d.

Amodei war einst führend in der Sicherheit von OpenAI. Im Jahr 2021 war er mit der Kommerzialisierung von OpenAI unzufrieden, als die Technologie großer Sprachmodelle nicht sicher genug war Eine Gruppe von Menschen verließ OpenAI, gründete ihr eigenes Unternehmen und gründete Anthropic.

Amodeis Ansatz ist den vom Science-Fiction-Romanautor Asimov erwähnten Robotergesetzen sehr ähnlich – indem er Verhaltensregeln für Roboter festlegt, um die Möglichkeit zu verringern, dass Roboter Menschen zerstören.

Es reicht bei weitem nicht aus, sich allein auf die Macht der Konzerne zu verlassen, um einen Verhaltenskodex für künstliche Intelligenz zu formulieren, sonst gerät man in die Problematik „sowohl der Schiedsrichter als auch der Sportler“. „, und die Industrie Die ethischen Rahmenbedingungen und die staatliche Rechtsaufsicht können nicht länger „langsam“ sein. Auch die Einschränkung des selbstgestalteten Verhaltens von Unternehmen durch technische Regeln, Gesetze und Vorschriften ist ein wichtiges Thema in der aktuellen Entwicklung der Künstlichen Intelligenz.

In Bezug auf die Gesetzgebung zu künstlicher Intelligenz hat bisher kein Land und keine Region ein Gesetz verabschiedet, das speziell auf künstliche Intelligenz abzielt.

Im April 2021 schlug die Europäische Union den „Artificial Intelligence Act“ vor, der sich noch in der Überprüfungsphase befindet, im Oktober 2022 veröffentlichte das Weiße Haus den „; Artificial Intelligence Power Act“ „Blueprint“, der keine Rechtswirkung hat, sondern nur einen Rahmen für Regulierungsbehörden bietet; im September 2022 verabschiedete Shenzhen die „Shenzhen Special Economic Zone Artificial Intelligence Industry Promotion Regulations“ und wurde damit zu den ersten Sondervorschriften des Landes die Branche der künstlichen Intelligenz; im März veröffentlichte das Vereinigte Königreich das „Weißbuch zur Regulierung der Industrie der künstlichen Intelligenz“, in dem fünf Grundsätze für die Steuerung künstlicher Intelligenz wie ChatGPT dargelegt werden.

Am 3. April begann China auch, die Festlegung von Regeln im Zusammenhang mit künstlicher Intelligenz weiterzuverfolgen – das Ministerium für Wissenschaft und Technologie holte öffentlich Stellungnahmen zu den „Technology Ethics Review Measures (Trial)“ ein, die den Beteiligten im Leben vorschlugen Wissenschaften, Medizin, künstliche Intelligenz usw. Wenn der Forschungsinhalt der an wissenschaftlichen und technologischen Aktivitäten beteiligten Einheit sensible Bereiche der Wissenschafts- und Technologieethik umfasst, sollte ein Ausschuss für Wissenschafts- und Technologieethik (Überprüfungsausschuss) eingerichtet werden. Für wissenschaftliche und technologische Aktivitäten mit Daten und Algorithmen entsprechen Datenverarbeitungspläne den nationalen Vorschriften zur Datensicherheit, und Pläne zur Überwachung von Datensicherheitsrisiken und Notfallmaßnahmen sind angemessen: Forschung und Entwicklung von Algorithmen und Systemen entsprechen den Grundsätzen der Offenheit, Fairness, Transparenz, Zuverlässigkeit und Kontrollierbarkeit.

Nachdem ChatGPT ein explosionsartiges Wachstum in der Forschung und Entwicklung generativer Großmodelle ausgelöst hat, will die Aufsicht das Tempo beschleunigen. Thierry Breton, EU-Direktor für Industriepolitik, sagte im Februar dieses Jahres, dass die Europäische Kommission eng mit dem Europäischen Rat und dem Europäischen Parlament zusammenarbeite, um die Regeln für allgemeine KI-Systeme im Gesetz über künstliche Intelligenz weiter zu präzisieren.

Ob es Unternehmen, die Wissenschaft oder die Regierung sind, sie haben begonnen, auf die Risiken künstlicher Intelligenz zu achten. Es sind Forderungen und Maßnahmen zur Festlegung von Regeln aufgetaucht. Die Menschheit ist nicht bereit, sanft in die KI-Ära einzutreten.


Das obige ist der detaillierte Inhalt vonViele Länder planen, ChatGPT zu verbieten. Kommt der Käfig für das „Biest'?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage