Übersetzer |. Liu Tao
Rezensent |. Chonglou
Die Entwicklung der künstlichen Intelligenz hat uns in den letzten Jahren nicht gebracht Es gibt nur Chancen, aber auch Rückschläge. Einige große Durchbrüche haben das Internet revolutioniert, und viele davon sind zum Besseren.
Doch bevor die Leute Zeit hatten, sich auf die Veröffentlichung von OpenAIs ChatGPT vorzubereiten, hatte es bereits die ganze Welt im Sturm erobert. Es schafft die Fähigkeit, auf natürliche Weise mit Menschen zu sprechen und in sehr kurzer Zeit aufschlussreiche Antworten zu geben, was beispiellos ist.
Als immer mehr Menschen auf die Möglichkeiten von ChatGPT aufmerksam wurden, wurde allen visionären Führungskräften auf der ganzen Welt klar, dass von diesem Zeitpunkt an die digitale Kommunikationstechnologie Einzug halten wird revolutionäre Veränderungen. Aber Innovationen gehen oft mit Kontroversen einher, und in diesem Fall musste sich der Supernova-Chatbot mit Datenschutzproblemen für legitime Daten auseinandersetzen.
Die Entwicklung von ChatGPT erforderte eine umfangreiche Datenerfassung und aufgrund der Unfähigkeit von OpenAI, genau zu beschreiben, wie der Chatbot funktioniert, wie er Daten verarbeitet und speichert, Vordenker und die Privatsphäre der Regierung Aufsichtsbehörden haben Bedenken hinsichtlich der Daten geäußert. Es gibt auch wachsende Bedenken und Fragen zu Datenschutzpraktiken.
Das Problem ist von der Öffentlichkeit nicht unbemerkt geblieben: Laut einer Umfrage aus dem Jahr 2023 glauben 67 % der weltweiten Verbraucher, dass sie die Kontrolle über ihre Daten von Technologieunternehmen verlieren .
Die gleiche Umfrage ergab auch, dass 72,6 % der iOS-Apps private Benutzerdaten verfolgen, und bei kostenlosen Apps ist die Wahrscheinlichkeit, dass sie Benutzerdaten verfolgen, viermal höher als bei kostenpflichtigen Apps.
Wenn Sie darüber besorgt sind, denken Sie daran, dass die meisten Benutzer von ChatGPT immer noch die kostenlose Version verwenden.
Vor diesem Hintergrund müssen Datenschutzunternehmen die von ChatGPT generierten Ergebnisse voll ausnutzen, Produkte bereitstellen, die den Datenschutz verbessern, und eine Welt mit stärkeren Daten schaffen Transparenz und mehr Verantwortung, damit sich die Menschen ihrer Datenrechte und deren Nutzung bewusst sind, aber auch, damit diese bahnbrechenden KI-Technologien nicht auf unethische Taktiken angewiesen sind, um zu profitieren, wie es viele große Technologieunternehmen tun.
1. ChatGPT kennt Sie vielleicht schon
Das heißt, wenn Sie jemals Artikel im Internet geschrieben haben, ist es sehr wahrscheinlich, dass ChatGPT diese Informationen gescannt und verarbeitet hat.
Darüber hinaus sind große Sprachmodelle (LLMs) wie ChatGPT stark auf große Datenmengen aus Online-Quellen wie E-Books, Artikeln und Social-Media-Beiträgen usw. angewiesen . um seinen Algorithmus zu trainieren. Dadurch können Benutzer damit authentische Antworten generieren, die scheinbar mit von Menschen geschriebenen Textnachrichten identisch sind.
Kurz gesagt, jeder Artikel, der im Internet veröffentlicht wurde, kann zum Trainieren von ChatGPT oder den Large Language Models (LLMs) seiner Konkurrenten verwendet werden. Diese LLMs werden definitiv folgen sobald ChatGPT erfolgreich ist.
Da OpenAI kürzlich zugab, dass Datenlecks durch Schwachstellen in Open-Source-Bibliotheken verursacht wurden, ist es nicht verwunderlich, dass Bedenken hinsichtlich Datenschutzproblemen bestehen. Darüber hinaus stellte ein Cybersicherheitsunternehmen fest, dass eine kürzlich hinzugefügte Komponente anfällig für eine aktiv ausgenutzte Sicherheitslücke war.
OpenAI führte eine Untersuchung durch und stellte fest, dass die durchgesickerten Daten die Titel des Chatverlaufs aktiver Benutzer und die erste Nachricht neu erstellter Konversationen enthielten.
Durch die Sicherheitslücke wurden auch die Zahlungsinformationen von 1,2 % der ChatGPT Plus-Benutzer offengelegt, darunter Vor- und Nachname, E-Mail-Adresse, Zahlungsadresse, Ablaufdatum der Zahlungskarte usw letzten vier Ziffern der Zahlungskartennummer.
Zu sagen, dass dies eine Datenschutzkatastrophe ist, ist eine Untertreibung. In ChatGPT stecken wahrscheinlich mehr Informationen als in jedem anderen Produkt auf der Welt, und nur wenige Monate nach der Veröffentlichung gelangen vertrauliche Informationen bereits an die Öffentlichkeit.
2. Was müssen ChatGPT-Benutzer tun?
Neben der Umsetzung von Vorsichtsmaßnahmen und der Einhaltung von Wachsamkeit müssen Benutzer auch ihre Rechte als betroffene Person (Data Subject Rights, DSR) wahrnehmen, zu denen auch die Wahrung ihres Rechts auf Zugriff, Bearbeitung und Zugriff gehört Persönliche Daten löschen.
Im digitalen Zeitalter muss sich jeder Benutzer für eine Verschärfung der Datenschutzbestimmungen einsetzen, damit er eine bessere Kontrolle über seine persönlichen Daten hat und größtmögliche Verantwortung gewährleisten kann. Nutzen Sie dies Information.
ChatGPT scheint darauf reagiert zu haben, da neue Sitzungen nun dazu auffordern, sensible Daten oder Firmengeheimnisse nicht einzugeben, da diese im System nicht sicher sind.
Samsung hat festgestellt, dass dies immer noch schwierig ist und mehr Menschen bei der Verwendung von ChatGPT-Eingabeaufforderungen aufmerksam und vorsichtig sein müssen.
Dinge wie die Verwendung eines neuen ChatGPT-Plugins zum Einkaufen mögen harmlos erscheinen, aber möchten Sie wirklich eine unsichere digitale Aufzeichnung darüber, wer Sie jemals gegessen haben? das Internet?
Bis diese Datenschutzbedenken ausgeräumt sind, müssen wir als Öffentlichkeit langsamer werden und dürfen uns nicht zu sehr auf die Hektik neuer KI-Technologien einlassen.
Es versteht sich von selbst: Wenn sich Nutzer dazu verpflichten, Transaktionen abzubrechen, müssen Unternehmen die Verantwortung für unangemessene Datennutzung und Datenschutzpraktiken übernehmen.
Daher sollten große und kleine Unternehmen transparente und leicht verständliche Protokolle fördern, damit Einzelpersonen klar verstehen, wie ihre Daten verwendet werden und wohin sie gehen, sowie alle Drittunternehmen, die möglicherweise Zugriff auf diese Daten haben .
Darüber hinaus sollten Unternehmensleiter den Benutzern klare Möglichkeiten zur Ausübung ihrer Rechte als betroffene Person (Data Subjektrechte, DSR) bieten und die Mitarbeiter dazu erziehen, ethische Richtlinien für die Datenverarbeitung und -speicherung einzuhalten.
Von diesem Ziel sind wir noch weit entfernt, da sich die meisten Standardberechtigungen immer noch in einer regulatorischen Grauzone befinden, da sie nicht eindeutig auf die Notwendigkeit hinweisen, sich abzumelden oder anzumelden, je nachdem, wo sich der Benutzer und das Unternehmen befinden.
Transparenz, Klarheit und Verantwortlichkeit sollten im Vordergrund der Überlegungen jedes Unternehmens stehen, wenn es um den Datenschutz geht.
Der Aufstieg von ChatGPT hat eine neue Ära der Datenschutzüberwachung eingeläutet, in der Organisationen und Einzelpersonen gleichermaßen proaktiv sein müssen, um sicherzustellen, dass Daten angemessen gehandhabt werden, um Verstöße und Missbrauch zu vermeiden.
ChatGPT sammelt mehr Daten schneller als jedes andere Unternehmen in der Geschichte, und wenn die Sicherheit schief geht, werden die Auswirkungen auf den Datenschutz beispiellos sein.
Wenn Unternehmen sicherstellen wollen, dass sie sich potenzieller Probleme wirklich bewusst sind, müssen sie damit beginnen, Daten strategischer zu schützen und das Vertrauen der Verbraucher in das Internet aufzubauen. Andernfalls ist eine bessere gemeinsame digitale Zukunft in großer Gefahr.
Originallink: https://hackernoon.com/the-evolution-of-ai-and-data-privacy-how-chatgpt-is-shaping-the-future-of-digital-communication
Liu Tao, 51CTO-Community-Redakteur, verantwortlich für die Erkennung und Kontrolle von Systemstarts bei einem großen Zentralunternehmen.
Das obige ist der detaillierte Inhalt vonChatGPT Vergangenheit und Zukunft: Die Entwicklung von künstlicher Intelligenz und Datenschutz in der digitalen Kommunikation. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!