ChatGPT scheint eine Krise zu erleben.
Am 31. März beschwerten sich zahlreiche Nutzer auf sozialen Plattformen darüber, dass sie sich nicht mehr mit ihrem eigenen Geld in das ChatGPT-Konto einloggen konnten. Noch peinlicher war, dass sie kein neues Konto registrieren konnten. Wie immer mehr Benutzer enthüllten, wurde festgestellt, dass der Vorfall mit der Kontosperrung am 30. März begonnen hatte und sich schnell ausbreitete.
Am 1. April sagten immer mehr Menschen, dass ihre Konten gesperrt seien, und die Leute auf großen Plattformen und in Gruppenchats beeilten sich, sich gegenseitig „Notizen“ zu machen, um eine Sperrung zu verhindern. Zu diesem Zeitpunkt blieben die ursprünglich nutzbaren Plus-Konten nicht verschont und wurden nacheinander ungültig, und einige Datensätze konnten in der Rechnung nicht überprüft werden.
Seltsamerweise schienen die groß angelegten Kontosperrungen auch am 3. April nicht aufgehört zu haben und schrieben auf sozialen Plattformen: „ChatGPT sperrt Konten in großem Umfang.“ Eine große Anzahl von Benutzern berichtete, dass sich die stillen Kontosperren dieses Mal hauptsächlich auf Asien konzentrierten. Gleichzeitig gab OpenAI keine Warnung oder Reaktion darauf heraus.
In Bezug auf die Compliance wurde ChatGPT ebenfalls einer neuen Prüfung unterzogen. Die Website Record gab bekannt, dass die italienische Datenschutzbehörde offiziell ein vorübergehendes Verbot der Nutzung von ChatGPT angekündigt und ihre Muttergesellschaft OpenAI strikt aufgefordert hat, die Verarbeitung italienischer Benutzerinformationen einzustellen. Italien hat den ersten Schuss zum Verbot von ChatGPT „abgefeuert“!
Zu den Gründen für das Verbot von ChatGPT gab die italienische Datenschutzbehörde an, dass OpenAI nicht nur illegal eine große Menge personenbezogener Daten italienischer Benutzer gesammelt habe, sondern, was noch schlimmer sei, dass OpenAI keinen Mechanismus zur Altersüberprüfung eingerichtet habe von ChatGPT-Benutzern, um zu verhindern, dass Minderjährige auf illegale Materialien zugreifen.
Die italienische Datenschutzbehörde erklärte weiter, dass OpenAI 20 Tage Zeit hat, sich gegen den Diebstahl von Informationen zu wehren, andernfalls kann ihm wegen Verstoßes gegen die Datenschutz-Grundverordnung der EU eine Geldstrafe von bis zu 20 Millionen Euro oder 4 % des Jahresumsatzes des Unternehmens auferlegt werden. Nicht nur im Hinblick auf Bußgelder: Sobald OpenAI nicht im Detail erklären kann, ob es Maßnahmen zum Schutz der Benutzerdaten ergriffen hat, erhöht sich zwangsläufig die Wahrscheinlichkeit, dass EU-Länder ChatGPT verbieten.
Nachdem Italien ChatGPT verboten hatte, schaltete OpenAI ChatGPT in Italien sofort offline, um zu erklären, dass die Arbeit des Unternehmens darin bestand, personenbezogene Daten beim Training künstlicher Intelligenzsysteme wie ChatGPT zu reduzieren wird eher die Welt verstehen als Einzelpersonen. Das Unternehmen hat keine Vorschriften verletzt und freut sich sehr auf die Zusammenarbeit mit der italienischen Datenschutzbehörde.
Es ist unbestreitbar, dass die Entstehung von ChatGPT eine neue Runde der Informationsrevolution auslösen und der Menschheit mehr Nutzen bringen wird. Allerdings hat alles zwei Seiten, und die Gesellschaft freut sich darauf Die Vorteile, die ChatGPT für die Menschheit mit sich bringt. Wenn sich eine beispiellose Chance bietet, sollten Sie auch bedenken, welche Sicherheitsrisiken ihre Entstehung mit sich bringt. Schließlich sind in nur zwei bis drei Monaten nach und nach Sicherheitsrisiken durch die Nutzung von ChatGPT aufgetreten.
ChatGPT zeigt seit seiner Einführung ein „perfektes“ Bild, aber als die Anzahl der Benutzer allmählich zunahm, wurden nach und nach einige Sicherheitsrisiken sichtbar.
Anfang März 2023 gaben einige Benutzer bekannt, dass die Chat-Aufzeichnungen anderer Personen in ihren Chat-Listen angezeigt wurden. ChatGPT hatte eine Zeit lang Benutzerdaten durchsickern lassen und große Social-Media-Listen besetzt. Am Ende hatte es der CEO der Muttergesellschaft OpenAI, Sam Altman dringend einen Tweet zu posten, um den Benutzern zu erklären, dass der Fehler, der dazu führte, dass der ChatGPT-Chatverlauf des Benutzers durchgesickert ist, nur ein Fehler in der Open-Source-Codebasis war.
Obwohl OpenAI nach dem Durchsickern von Benutzer-Chat-Aufzeichnungen gegenüber den Medien bereitwillig zugab, dass in ChatGPT eine Sicherheitslücke bestand, und die Chat-Verlaufsfunktion sofort abschaltete, betonte es immer, dass nur der Titel des Chat-Verlaufs vorhanden sei Durchgesickert. Benutzer können die tatsächlichen Chats anderer Personen nicht sehen.
Den von OpenAI offengelegten Informationen zufolge werden Benutzerkonversationsinhalte automatisch in der Cloud gespeichert und es besteht die Möglichkeit, dass sie von Dritten gestohlen werden. In Kombination mit diesem Leck historischer Chat-Aufzeichnungen haben immer mehr Sicherheitsforscher damit begonnen Erwägen Sie ernsthaft die Entstehung von ChatGPT. Ob Informationssicherheitsprobleme zufällig sind.
Eine Welle nach der anderen. Letzte Woche enthüllten südkoreanische Medien, dass der Technologieriese Samsung Electronics weniger als 20 Tage nach der Einführung von ChatGPT drei Lecks interner vertraulicher Daten ausgesetzt war. (2 Fälle betrafen Halbleiterausrüstung und 1 Fall bezog sich auf den Inhalt interner Besprechungen).
Es wird berichtet, dass diese vertraulichen Informationen von Samsung Electronics möglicherweise in die ChatGPT-Datenbank importiert wurden und jederzeit Gefahr laufen, verloren zu gehen.
Detaillierte Beschreibung der drei Vorfälle:
Nach dem Leck von Samsung Electronics organisierten sie sofort intern Sicherheitspersonal, um entsprechende Schutzmaßnahmen zu formulieren, und gaben an, dass Samsung den ChatGPT-Dienst möglicherweise intern abschalten würde, wenn ähnliche Vorfälle in Zukunft erneut auftreten. Darüber hinaus enthüllten die Medien, dass Samsung derzeit über das DS Department Innovation Center die Entwicklung Samsung-spezifischer KI-Dienste erwägt.
Am 11. März dieses Jahres verabschiedete Samsung Electronics einen Beschluss, um Mitarbeitern der DS-Abteilung die Nutzung von ChatGPT zu ermöglichen, ChatGPT ist jedoch für Mitarbeiter der Abteilung DX Device Experience weiterhin deaktiviert. Infolgedessen sind wir in nur zwanzig Tagen auf drei unerwartete Sicherheitsvorfälle gestoßen, was zeigt, dass die Sicherheit von ChatGPT tatsächlich eine Überlegung wert ist.
Samsung ist nicht das einzige Unternehmen, bei dem Mitarbeiter vertrauliche Unternehmensdaten auf ChatGPT hochladen. Den Statistiken von Cyberhaven über die Nutzung von ChatGPT durch 1,6 Millionen Mitarbeiter zufolge laden etwa 3,1 % der Mitarbeiter interne Unternehmensdaten zur Analyse direkt auf ChatGPT hoch, um die Arbeitseffizienz zu verbessern.
Wie aus den oben genannten Inhalten hervorgeht, ist ChatGPT weit verbreitet und birgt einige ernsthafte Sicherheitsrisiken, was die Zukunft von ChatGPT betrifft und künstliche Intelligenz weckten öffentliche Besorgnis über die KI-Technologie, und viele bekannte Wissenschaftler erklärten gemeinsam, dass sie die Entwicklung leistungsfähigerer KI-Systeme aussetzen würden.
Am 29. März (US-Zeit) waren unter den Teilnehmern der Vater der künstlichen Intelligenz, Jeffrey Hinton, Tesla- und Twitter-CEO Elon Musk, Turing-Award-Gewinner Joshua Bengio usw. Tausende von Experten für künstliche Intelligenz und Branchenführern haben einen offenen Brief mit dem Titel „ „Pause Large Model Experiments in AI“, herausgegeben vom Future of Life Institute, einer US-amerikanischen Non-Profit-Organisation.
In dem Brief forderten diese hochrangigen Experten alle Labore für künstliche Intelligenz auf, die Entwicklung und Ausbildung leistungsfähigerer Systeme für künstliche Intelligenz für mindestens ein halbes Jahr auszusetzen. Unter besonderen Umständen sollten Regierungen umgehend eingreifen und das KI-System sofort aussetzen Forschung.
Das obige ist der detaillierte Inhalt vonChatGPT Waterloo: Weit verbreitetes Kontoverbot; von Italien verboten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!