Sie sind mehr als nur ein Datenpunkt. Der Ausstiegsmechanismus hilft Ihnen dabei, Ihre Privatsphäre wiederzugewinnen.
Die neueste Welle der Entwicklung künstlicher Intelligenz zwingt viele von uns, Schlüsselaspekte des Lebens zu überdenken. Zum Beispiel müssen sich digitale Künstler nun darauf konzentrieren, ihre Arbeit vor bildgenerierenden Websites zu schützen, während die Lehrer mit Situationen umgehen müssen, in denen einige Schüler das Schreiben von Aufsätzen an Chatgpt auslagern können.
Aber die Entstehung künstlicher Intelligenz stellt auch wichtige Privatsphärenrisiken dar, die jeder wissen sollte - auch wenn Sie nicht herausfinden, wie diese Technologie Sie als Meerjungfrau aussehen.
Die Brookings Institution (eine gemeinnützige Agentur mit Sitz in Washington, D.C., führt Forschungen durch, um eine breite Palette von nationalen und globalen Themen zu lösen) sagte, Jessica Brandt, politische Direktorin für KI und aufstrebende Technologieinitiativen Verwendet unsere persönlichen Informationen, wie sie verwendet wird und zu welchem Zweck. “
im Großen und Ganzen erfordert maschinelles Lernen - der Prozess, in dem künstliche Intelligenzsysteme genauer werden - viele Daten. Je mehr Daten das System hat, desto höher ist seine Genauigkeit. Generative Plattformen für künstliche Intelligenz wie ChatGPT und Googles Barde sowie der Bildgenerator Dall-E erhalten einen Teil der Trainingsdaten über eine Technologie namens Crawling: Sie scannen das Internet, um nützliche öffentliche Informationen zu sammeln.
manchmal aufgrund menschlicher Fehler oder Fahrlässigkeit, können private Daten, die nicht offenbart werden dürfen, wie sensible Unternehmensdateien, Bilder oder sogar Anmeldlisten, den zugänglichen Teil des Internets eingeben, den jeder mit der Hilfe finden kann von Google -Suchbetreibern sie. Sobald diese Informationen gekrabbt und dem Trainingsdatensatz der KI hinzugefügt wurden, können nur wenige Personen sie löschen.
"Menschen sollten in der Lage sein, frei zu teilen", sagte Ivana Bartoletti, weltweite Privatsphäre des indischen Technologieunternehmens Wipro und Forscher bei der Zugriffe auf Cybersicherheit und Datenschutzverfolgung an der Pampurin School of Business von Virginia Tech, ohne sich darüber Sorgen zu machen, wie es wird. Setzen Sie schließlich generative KI -Tools oder schlechter - ihre Bilder können verwendet werden, um tiefe Fälschungen zu erstellen
Datenkriechen sind nur eine der potenziellen Quellen für Probleme in den Schulungsdaten für künstliche Intelligenzsysteme. Eine andere Quelle ist die sekundäre Verwendung personenbezogener Daten, sagte Katharina Koerner, Senior Privacy Engineering -Forscher bei der International Association of Privacy Professionals. Dies geschieht, wenn Sie freiwillig einige Informationen für einen bestimmten Zweck aufgeben, aber es endet für andere Zwecke, denen Sie nicht zustimmen. Unternehmen sammeln seit Jahren Kundeninformationen, einschließlich E -Mail -Adressen, Lieferdetails und der Art des Produkts, das sie mögen, aber in der Vergangenheit konnten sie diese Daten nicht viel anfangen. Heute bieten ausgefeilte Algorithmen und künstliche Intelligenzplattformen eine einfache Möglichkeit, diese Informationen zu verarbeiten, damit sie mehr über die Verhaltensmuster der Menschen erfahren können. Dies kann Ihnen zugute kommen, indem Sie Ihnen nur Werbung und Informationen zur Verfügung stellen, die Sie sich vielleicht wirklich interessieren. Dies kann jedoch auch das Angebot an Produkten einschränken und die Preise basierend auf Ihrer Postleitzahl erhöhen. Angesichts der Tatsache, dass einige Unternehmen bereits viele Daten von ihren Kunden zur Verfügung haben, ist es für Unternehmen sehr verlockend, dies zu tun, sagte Korner.
Sie erklärte: "KI erleichtert es einfach, wertvolle Muster aus verfügbaren Daten zu extrahieren, die zukünftige Entscheidungen unterstützen können. Daher ist es für Unternehmen sehr einfach, personenbezogene Daten zu erhalten, wenn Daten nicht für diesen Zweck gesammelt werden. Für maschinelles Lernen."
Es hilft Entwicklern nicht, Ihre persönlichen Daten aus großen Trainingsdatensätzen selektiv zu löschen. Natürlich kann es einfach sein, spezifische Informationen zu löschen (z. B. Ihr Geburtsdatum oder Sozialversicherungsnummer (keine persönlichen Daten für eine generische AI -Plattform angeben). Die Implementierung einer vollständigen Löschanfrage, die der europäischen allgemeinen Datenschutzverordnung entspricht, ist jedoch eine andere Angelegenheit und die möglicherweise komplexeste Herausforderung, die angegangen werden muss, sagte Bartoletti.
[Verwandte: Wie man schulische Geräte daran hindert, Daten von Ihrer Familie zu teilen]
Die Löschung in der selektiven Inhaltsinhalte ist selbst in herkömmlichen IT -Systemen aufgrund seiner komplexen Microservice -Struktur schwierig (jedes Teil funktioniert als separate Einheit). Aber Korner sagte, dass dies im Kontext künstlicher Intelligenz im Moment noch schwieriger und sogar unmöglich ist.Das liegt daran, dass es nicht nur darum geht, auf "Strg F" zu klicken und alle Daten mit dem Namen eines Menschen zu löschen. Das Löschen seiner Daten erfordert teure Programme, die das gesamte Modell von Grund auf neu übertragen, erklärte sie.
Der Ausgangsmechanismus wird immer schwieriger
Brenda Leong, Partnerin bei BNH.AI, einer Anwaltskanzlei, die sich auf künstliche Intelligenz Audits und Risiken in Washington, DC, konzentriert, sagte: "Wir sind zu den wenigsten Informationen angekommen, die nur erforderlich sind - nur drei bis zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf zu gehen. Fünf Daten über eine Person, die leicht zu erhalten ist - sie werden sofort in das Vorhersagesystem aufgenommen.
Dies lässt uns wenig Freiheit, denn selbst diejenigen, die seit Jahren daran arbeiten, ihre Privatsphäre zu schützen, werden Entscheidungen und Empfehlungen für sie treffen. Dies kann das Gefühl haben, dass alle ihre Bemühungen vergeblich waren.
Liang fuhr fort: "Auch wenn dies eine vorteilhafte Möglichkeit für mich ist, mir ein Darlehen zu geben, der mit meinem Einkommensniveau entspricht, oder eine Gelegenheit, die ich wirklich interessiert habe, ist es auch in meiner Unfähigkeit, auf irgendeine Weise zu kontrollieren, was getan hat es für mich unter den Umständen. "
Verwenden von Big Data, um die gesamte Bevölkerung ohne Nuancen zu klassifizieren - für Ausreißer und Ausnahmen - alle wissen, dass das Leben voll davon ist. Der Teufel steht im Detail, aber auch verallgemeinerte Schlussfolgerungen auf besondere Umstände anwendet, können die Dinge wirklich schlecht werden.
Eine weitere wichtige Herausforderung besteht darin, die faire Fairness in der algorithmischen Entscheidungsfindung zu vermitteln. Es ist bekannt, dass künstliche Intelligenzsysteme die Vorurteile ihrer menschlichen Schöpfer aufrechterhalten können, manchmal mit schrecklichen Konsequenzen für die gesamte Gemeinschaft.
Wenn mehr Unternehmen auf Algorithmen angewiesen sind, um sie dabei zu helfen, Positionen zu besetzen oder Fahrerrisikoprofile zu bestimmen, ist es wahrscheinlicher, dass unsere Daten gegen unsere eigenen Interessen verwendet werden. Sie können eines Tages durch automatisierte Entscheidungen, Vorschläge oder Vorhersagen, die dieser Systeme mit wenig bis gar nicht zur Verfügung standen, geschädigt werden.
[Verwandte: Autonome Waffen können ernsthafte Fehler im Krieg machen]
Dies ist auch ein Problem, wenn diese Vorhersagen oder Bezeichnungen in den Augen künstlicher Intelligenzalgorithmen zu Fakten werden, die nicht zwischen wahr und falsch unterscheiden können. Für moderne künstliche Intelligenz sind alles Daten, sei es personenbezogene Daten, öffentliche Daten, sachliche Daten oder vollständig fiktive Daten.
Genauso wie Ihre Internetpräsenz so leistungsfähig ist wie Ihr schwächstes Passwort, bietet die Integration großer KI -Tools in andere Plattformen auch Angreifer, um es zu versuchen, wenn Sie versuchen, auf private Daten zuzugreifen. Seien Sie nicht überrascht, wenn Sie feststellen, dass einige von ihnen die Sicherheitsstandards nicht entsprechen.
Dies berücksichtigt nicht einmal alle Unternehmen und Regierungsbehörden, die Ihre Daten ohne Ihr Wissen sammeln. Denken Sie an Überwachungskameras in der Nähe Ihres Hauses und verfolgen Sie Ihre Gesichtserkennungssoftware in Bezug auf Konzertorte, Kinder, die Gopros in Ihrem örtlichen Park herumlaufen, und sogar Menschen, die versuchen, auf Tiktok beliebt zu werden.
Je mehr Menschen und Plattformen Ihre Daten verarbeiten, desto größer ist die Wahrscheinlichkeit von Fehlern. Ein größerer Fehler für Fehler bedeutet, dass Ihre Informationen mit größerer Wahrscheinlichkeit in das Internet eingelegt werden, wo sie leicht in den Trainingsdatensatz des KI -Modells gekrabbeln können. Wie oben erwähnt, ist dies sehr schwer rückgängig zu machen.
Die schlechte Nachricht ist, dass Sie im Moment nichts dagegen tun können. Sie können auch nicht die potenziellen Sicherheitsbedrohungen des KI -Trainingsdatensatzes lösen, das Ihre Informationen enthält, und Sie können auch das Vorhersagesystem lösen, das möglicherweise Verhindern Sie, dass Sie Ihren idealen Job bekommen. Gegenwärtig ist unser bester Ansatz, Überwachung zu erfordern.
Die EU hat den ersten Entwurf des Gesetzes über künstliche Intelligenz verabschiedet, wodurch die Verwendung von Unternehmen und Regierungen die Technologie auf der Grundlage akzeptabler Risikoniveaus einsetzt. In der Zwischenzeit hat US -Präsident Joe Biden die Entwicklung ethischer und fairer KI -Technologien durch Exekutivbefehle finanziert, der Kongress hat jedoch keine Gesetze zum Schutz der Privatsphäre der US -Bürger in Bezug auf KI -Plattformen verabschiedet. Der Senat hat Anhörungen abgehalten, um etwas über die Technologie zu erfahren, aber es ist nicht kurz vor der Schaffung eines Bundesgesetzes.
Im Prozess der staatlichen Arbeit können und sollten Sie Datenschutzbestimmungen wie künstliche Intelligenzplattformen einsetzen und Benutzer vor der Fehlverarbeitung ihrer Daten schützen. Nehmen Sie sinnvolle Gespräche mit Ihren Mitmenschen über die Entwicklung von KI, stellen Sie sicher, dass Sie die Position Ihres Vertreters zu den Datenschutzbestimmungen des Bundes verstehen und für diejenigen stimmen, die sich am meisten für Ihre Interessen interessieren.
Lesen Sie mehr Popsci -Geschichten.
Das obige ist der detaillierte Inhalt vonDer Opt -out: 4 Datenschutzbedenken im Alter von KI. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!