ChatGPT wurde schnell auf der ganzen Welt „populär“ und hat sich zweifellos zu einem hochkarätigen „Starprodukt“ im Bereich der künstlichen Intelligenz entwickelt. Es wurde jedoch berichtet, dass ChatGPT immer häufiger eingesetzt wird wurde für akademischen Betrug, Hacking-Waffen und Lecks verwendet. Eine Reihe negativer Nachrichten wie vertrauliche Chat-Informationen des Benutzers. Zu diesem Zeitpunkt hat die Gesellschaft begonnen, Technologien der künstlichen Intelligenz wie ChatGPT erneut zu prüfen.
Im Vergleich zu den intelligenten Robotern, die in der Vergangenheit im industriellen Bereich eingesetzt wurden, können sie den Menschen nur in komplexen Situationen ersetzen , mechanische und gefährliche Aufgaben Im Vergleich zu manueller Arbeit verfügt die Technologie der künstlichen Intelligenz ähnlich wie ChatGPT über eine stärkere Dialogfähigkeit, Flexibilität und eine gute „Fähigkeit zum unabhängigen Denken“ und verändert das Verständnis der Gesellschaft für den Bereich der künstlichen Intelligenz. Gegenwärtig wurden die von Technologiegiganten herausgebrachten Produkte der künstlichen Intelligenz in verschiedene Branchen wie Schreiben, Programmieren und Malen integriert und lösten eine neue Runde technologischer Veränderungen aus.
Es ist unbestritten, dass künstliche Intelligenztechnologien wie Chat GPT, sobald sie vollständig entwickelt sind, der Gesellschaft gute Dienste leisten und der Menschheit zugute kommen können. Gleichzeitig ist die Chat-GPT-Technologie für künstliche Intelligenz auch ein „zweischneidiges Schwert“. Ihre Sicherheitsprobleme, Compliance-Probleme und Auswirkungen auf die Arbeitsverteilung des Sozialpersonals haben die Aufmerksamkeit vieler Branchenführer und Länder auf sich gezogen.
Wenn die gesamte Gesellschaft in die „Fantasie“ versunken ist, dass Technologien künstlicher Intelligenz wie ChatGPT zum Einsatz kommen die vierte industrielle Revolution auslösen wird, äußerten viele große Namen der Technologiebranche widersprüchliche Meinungen und äußerten sogar leichte Bedenken hinsichtlich der schnellen Entwicklung einer ChatGPT-ähnlichen Technologie für künstliche Intelligenz.
Kürzlich sprach Buffett, der Pate der Investmentbranche, über seine Gedanken zur rasanten Entwicklung von ChatGPT- wie künstliche Intelligenz in einem Interview mit den Medien. Buffett sagte Reportern, dass es keinen Zweifel daran gebe, dass die Technologie der künstlichen Intelligenz tatsächlich unglaubliche Fortschritte in Bezug auf die technischen Fähigkeiten gemacht habe, aber basierend auf ihren Auswirkungen auf die Gesellschaft als Ganzes gebe es derzeit keine groß angelegten experimentellen Ergebnisse, die die Entwicklung künstlicher Intelligenz unterstützen würden Intelligenz ist für die Menschheit von Vorteil. Unter diesem Gesichtspunkt sollte die Entwicklung künstlicher Intelligenz vorsichtig und rational erfolgen.
Buffetts Bedenken sind nicht unbegründet. Die schnelle Beliebtheit von ChatGPT hat die dahinter stehenden Sicherheits-, Compliance- und anderen Probleme verdeckt, die lediglich darin bestehen, dass sie fortschrittlich und effizient sind , und sie verstehen die potenziellen Bedrohungen nicht tiefgreifend.
Nach den derzeit von den Medien veröffentlichten Informationen zu urteilen, gibt es bereits Hinweise darauf, dass einige Hacker künstliche Intelligenz ähnlich einsetzen auf ChatGPT-Produkte, um bösartigen Code und Phishing-E-Mails zu schreiben, ganz zu schweigen von den eigenen Sicherheitsproblemen von ChatGPT. (Zuvor wurden bei Samsung Informationen durchgesickert, weil Mitarbeiter Schulungsdaten zu ChatGPT erhielten; die Chat-Informationsliste der ChatGPT-Benutzer wurde durchgesickert usw.).
Bevor Buffett Bedenken hinsichtlich der Entwicklung der Technologie der künstlichen Intelligenz äußerte, hatte sich Tesla-Gründer Musk Tausenden von A angeschlossen Mehrere Technologieexperten veröffentlichten einen offenen Brief, in dem sie ein Moratorium für die Ausbildung künstlicher Intelligenzsysteme forderten, die leistungsfähiger als GPT-4 sind.
Am 29. März ergriff Musk Maßnahmen und unterzeichnete einen offenen Brief, der von Tausenden von Prominenten aus Industrie und Wissenschaft unterzeichnet wurde und alle Labore für künstliche Intelligenz aufforderte, die Ausbildung für mindestens 6 Monate auszusetzen als GPT-4 Künstliche Intelligenzsysteme zur Entwicklung und Durchsetzung von Sicherheitsprotokollen.
Zu diesem Schritt sagte Musk, dass angesichts der starken technischen Fähigkeiten von ChatGPT dessen Sicherheitsprobleme überwacht werden müssen. Darüber hinaus hat Elon Musk wiederholt betont, dass künstliche Intelligenz über mächtige Fähigkeiten verfügt, aber auch mit enormen Risiken verbunden ist. Es handelt sich zweifellos um ein zweischneidiges Schwert. Er glaubt sogar pessimistisch, dass die Technologie der künstlichen Intelligenz eine der größten Risiken für die menschliche Zivilisation darstellt .
Es ist erwähnenswert, dass Musk und andere im Gegensatz zu Buffett der Entwicklung der Technologie der künstlichen Intelligenz „negativ“ gegenüberstehen Attitude, der frühere reichste Mann der Welt, Bill Gates, ist diesbezüglich relativ optimistisch und sagte, dass eine Aussetzung der Entwicklung das Problem nicht vollständig lösen könne und dass es die beste Lösung sei, herauszufinden, welche Methoden anzuwenden sind und die Entwicklung der Technologie der künstlichen Intelligenz rational zu nutzen.
Viele Filme, Fernsehserien und Romane haben sich Roboter mit künstlicher Intelligenz vorgestellt, die der Gesellschaft dienen und der Menschheit zugute kommen, und haben dies auch getan Ein negativer Einfluss auf die Sicherheit künstlicher Intelligenz. Es gab ausführliche Diskussionen über Zuverlässigkeit, Zuverlässigkeit und Loyalität und darüber, ob Produkte wie ChatGPT diese Idee langsam in die Realität umsetzen Das „zweischneidige Schwert“ der Entwicklung künstlicher Intelligenz. Themen wie Sicherheit und Compliance müssen sorgfältig geprüft werden.
Vor einem Dutzend Tagen verbot die italienische Regierung den Betrieb von Chat GPT in Italien mit der Begründung, dass OpenAI illegal eine große Menge personenbezogener Daten italienischer Benutzer gesammelt und keinen Mechanismus zur Überprüfung des Alters von ChatGPT-Benutzern eingerichtet habe, um Minderjährige zu verhindern vor dem Zugriff auf illegale Materialien. Nach einigen Tagen der Pufferung machte die italienische Datenschutzbehörde leichte Zugeständnisse und schlug OpenAI eine Reihe von Anforderungen vor. Wenn diese erfüllt werden können, wird Italien ChatGPT weiterhin im Land betreiben.
Zu diesem Zeitpunkt hat Italien den „ersten Schuss“ in Bezug auf Probleme bei der Einhaltung der ChatGPT-Sicherheit abgefeuert.
Die von Italien bei ChatGPT ergriffenen Sicherheitsmaßnahmen haben die Aufmerksamkeit europäischer Länder auf sich gezogen. Derzeit prüfen europäische Länder, ob strenge Beschränkungen für Technologien der künstlichen Intelligenz ähnlich wie bei ChatGPT erforderlich sind. Unter anderem hat die spanische Datenschutzbehörde die EU-Datenschutzbehörde gebeten, Datenschutz-Compliance-Probleme im Zusammenhang mit der Verwendung von ChatGPT zu bewerten.
Unmittelbar danach verkündeten auch deutsche Aufsichtsbehörden ein Verbot der Nutzung von ChatGPT und auch europäische Länder wie Frankreich, Irland und Spanien begannen, über eine strengere Überwachung von KI-Chatbots nachzudenken.
Mit einer Klappe stärkt Italien seine Aufsicht über ChatGPT, was nicht nur Bedenken hinsichtlich künstlicher Intelligenz in EU-Ländern hervorruft, sondern auch Menschen auf der anderen Seite der EU betrifft Ozean.
Am 11. April, Ortszeit in den Vereinigten Staaten, brachte das „Wall Street Journal“ plötzlich die Nachricht, dass die Biden-Regierung mit der Untersuchung begonnen habe, weil die amerikanische Gesellschaft über die Sicherheitsbedrohungen besorgt sei, die Technologien der künstlichen Intelligenz wie ChatGPT mit sich bringen könnten ob es notwendig ist, solche Tools einzuschränken.
Daraufhin hat das US-Handelsministerium am 11. April offiziell öffentliche Meinungen zu entsprechenden Maßnahmen zur Rechenschaftspflicht eingeholt (die Frist für die Einholung von Meinungen beträgt 60 Tage, einschließlich der Frage, ob neue Modelle für künstliche Intelligenz mit potenziellen Risiken vor dem Zertifizierungsprozess genehmigt werden sollten). Dieser Schritt gilt als erster Schritt zur möglichen Regulierung der Technologie der künstlichen Intelligenz in den Vereinigten Staaten.
In Bezug auf die Dringlichkeit, Regeln festzulegen, um die Entwicklung von Technologien der künstlichen Intelligenz wie ChatGPT zu regulieren, wies Alan Davidson, Direktor der National Telecommunications and Information Administration, einer Behörde des US-Handelsministeriums, darauf hin, dass die Technologie der künstlichen Intelligenz nur ein Problem darstellt Da sich die Technologie noch im Anfangsstadium befindet und bereits so „fortgeschritten“ ist, müssen Regierungen potenzielle Kriminelle in Betracht ziehen, die diese Technologie für kriminelle Aktivitäten nutzen, und daher einige notwendige Grenzen setzen.
Nicht nur die Vereinigten Staaten, sondern auch mein Land haben begonnen, Forschung und Entwicklung im Bereich der menschlichen Intelligenz zu intensivieren. Am 11. April veröffentlichte die Cyberspace Administration of China die „Managementmaßnahmen für generative künstliche Intelligenzdienste (Entwurf zur Stellungnahme)“ (im Folgenden als „Managementmaßnahmen“ bezeichnet) mit der Begründung, die gesunde Entwicklung und standardisierte Anwendung generativer künstlicher Intelligenz zu fördern Geheimdiensttechnologie. Es wird berichtet, dass die „Managementmaßnahmen“ insgesamt 21 Elemente umfassen, darunter „generative künstliche Intelligenz“ eine Technologie, die Texte, Bilder, Töne, Videos, Codes und andere Inhalte auf der Grundlage von Algorithmen, Modellen und Regeln generiert.
Die „Managementmaßnahmen“ schränken die Aufteilung der Verantwortlichkeiten für Informationen ein, die durch die Anwendung der Technologie der künstlichen Intelligenz generiert werden, und weisen klar auf Organisationen und Einzelpersonen hin, die Produkte der generativen künstlichen Intelligenz verwenden, um Dienste wie Chat und Text-, Bild- und Tonerzeugung bereitzustellen , unter anderem durch die Bereitstellung programmierbarer Schnittstellen usw. Die Methode unterstützt andere dabei, Texte, Bilder, Töne usw. selbst zu generieren, und übernimmt die Verantwortung des Inhaltsproduzenten des Produkts, sofern es um personenbezogene Daten geht des Verarbeiters personenbezogener Daten und erfüllt die Verpflichtungen zum Schutz personenbezogener Daten.
Darüber hinaus gibt es auch Anforderungen an Hersteller von Produkten der künstlichen Intelligenz. Die „Verwaltungsmaßnahmen“ sehen vor, dass sie vor der Markteinführung von Produkten gemäß den „Vorschriften zur Sicherheitsbewertung des Internets“ Bericht erstatten müssen Informationsdienste mit Merkmalen der öffentlichen Meinung oder Fähigkeiten zur sozialen Mobilisierung“ Sicherheitsbewertung und Durchführung von Verfahren zur Einreichung von Algorithmen sowie zur Einreichung von Änderungen und Löschungen gemäß den „Internet Information Service Algorithm Recommendation Management Regulations“.
Wenn auf sozialer Ebene über Produkte mit künstlicher Intelligenz wie ChatGPT gesprochen wird, sind sie eher besorgt über die Daten, die von Herstellern zum Trainieren von Produkten mit künstlicher Intelligenz verwendet werden. Dieser Punkt wird auch in den „Managementmaßnahmen“ hervorgehoben, die deutlich auf die Vorhersage hinweisen Für Produkte der generativen künstlichen Intelligenz sollten Training und Optimierung von Trainingsdaten die folgenden Anforderungen erfüllen:
Abschließend betonen die „Managementmaßnahmen“, dass bei generierten Inhalten, die während des Betriebs gefunden und von Benutzern gemeldet werden und die Anforderungen dieser Maßnahmen nicht erfüllen, zusätzlich zu Maßnahmen wie der Inhaltsfilterung verhindert werden soll, dass sie erneut generiert werden innerhalb von 3 Monaten durch Modelloptimierungstraining und andere Methoden.
Nach einer großen Anzahl von Trainingsiterationen entwickeln sich Technologien für künstliche Intelligenz wie ChatGPT rasant weiter. Im Gegenteil, die bestehenden Rechtssysteme verschiedener Länder sind offensichtlich nicht vollständig genug, um Technologien für künstliche Intelligenz wie ChatGPT zu überwachen Vorschriften zur Regulierung der Entwicklung der Technologie der künstlichen Intelligenz sind für verschiedene Länder zu einem wichtigen Problem geworden, das gelöst werden muss.
Mit der rasanten Entwicklung der Computertechnologie ist die Welle der Revolution der künstlichen Intelligenz unvermeidlich, und einige „künstliche Intelligenz“ werden in Zukunft unweigerlich ersetzt. Darüber hinaus wird die große Anzahl von Anwendungen künstlicher Intelligenztechnologie wie ChatGPT definitiv zu Sicherheitsproblemen wie Datenlecks, Optimierung von Netzwerk-Hacking-Tools, groß angelegtem Betrug und fiktiven KI-Bildern führen.
Aber keiner der oben genannten Faktoren kann eine Entschuldigung dafür sein, die Forschung und Entwicklung der Technologie der künstlichen Intelligenz auszusetzen. Der Mensch sollte der Ankunft der künstlichen Intelligenz nicht mit Angst begegnen. Wir müssen immer daran denken, dass „Menschen“ die Grundlage für die Entwicklung sind Ich glaube, dass durch kontinuierliche Optimierung der Technologie und Formulierung von Vorschriften der durch „Derivate“ verursachte Schaden minimiert werden kann.
Das obige ist der detaillierte Inhalt vonWird GPT cool sein? Buffett, Musk und andere große Namen fordern eine Aussetzung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!