Die Entwicklung und Anwendung künstlicher Intelligenz erfordert die Nutzung großer Datenmengen. Je mehr Daten Sie maschinellen Lernalgorithmen zuführen, desto besser können sie Muster erkennen, Entscheidungen treffen, Verhalten vorhersagen, Inhalte personalisieren, medizinische Zustände diagnostizieren, Erkenntnisse gewinnen und Cyber-Bedrohungen und Betrug erkennen.
Tatsächlich haben künstliche Intelligenz und Daten eine solche Beziehung erreicht: „Algorithmen ohne Daten sind blind, und Daten ohne Algorithmen sind dumm.“ Aber der Einsatz künstlicher Intelligenztechnologie kann mit Risiken verbunden sein, die nicht jeder möchte ihre Informationen oder Daten weiterzugeben, zumindest unter den aktuellen Regeln des digitalen Engagements. Daher sind einige digitale Selbstverteidigungsmaßnahmen erforderlich.
Manche Menschen brechen den Kontakt zur Außenwelt komplett ab und werden zu digitalen Einsiedlern; andere gehen auf Nummer sicher und nutzen digitale Selbstverteidigung, eine Verbesserung der Privatsphäre Technologie (PET). Reaktion auf digitale Lecks.
Menschen, die digitale Selbstverteidigung nutzen, vertrauen den Datenschutzhinweisen von Websites nicht und verwenden stattdessen Tools wie Privacy Level Extension, um sie zu überprüfen. Anstatt ihre Präferenzen mitzuteilen, verwenden sie spezielle Tools – wie zum Beispiel KI-gestützte Suchmaschinen und Browser, die die Privatsphäre schützen –, um anonyme Suchen durchzuführen. Diese Tools verhindern, dass unsichtbare Tracker seitenübergreifend verfolgen, und helfen ihnen, die Welt zu erkunden, zusammenzuarbeiten und Daten auf neue Weise zu speichern.
Es gibt Tools, die Menschen anwenden können, um mit der Erfassung und Analyse der Privatsphäre durch Algorithmen der künstlichen Intelligenz umzugehen. Dies wird als digitale Selbstverteidigung bezeichnet. oder auch als Monitor-Selbstverteidigung bekannt.
Benutzer, die digitale Selbstverteidigung anwenden, haben oft genug von der allgegenwärtigen Verfolgung ihres Online-Verhaltens, die sogar in ihr Offline-Leben Einzug gehalten hat. Digitale Selbstverteidigung ist kein Akt der Spionage, sondern Selbstschutz der Privatsphäre.
Dieses Verhalten begann mit dem umfassenden Überwachungsprogramm der US-Regierung, das 2013 vom ehemaligen US-Agenten Edward Snowden aufgedeckt wurde und der National Security Agency einen beispiellosen Zugriff auf die Kommunikation und Informationen von Menschen ermöglichte, einschließlich des Diebstahls von E-Mails, Fotos, Videos usw. Live-Chats und andere Informationen von den Servern von Technologiegiganten wie Apple, Google, Skype und Facebook.
Ähnlich aufdringliche Taktiken des britischen Geheimdienstes GCHQ wurden ebenfalls aufgedeckt, was ein höheres Bewusstsein für die Sicherheit der Privatsphäre auslöste und den Entwicklungsverlauf der EU-Datenschutzvorschriften veränderte, was zur Aufnahme verbraucherorientierter Richtlinien in die Vorschriften führte . Patientenzentrierte, datenschutzorientierte Kultur, wie z. B. DSGVO-Vorschriften.
Technologiegiganten bemühen sich, ihre Datenschutzrechte unter Beweis zu stellen, indem sie die Verschlüsselung zum Standard machen und die Privatsphäre der Benutzer zur Priorität erklären. Sie positionieren sich als vertrauenswürdige Datenhüter, denen Verbraucher vertrauen können, ohne sich digital verteidigen zu müssen.
Aber der Datenschutzskandal von Cambridge Analytica im Jahr 2018 brachte etwas ans Licht, das möglicherweise beunruhigender ist als staatliche Überwachung: „Überwachungskapitalismus“. Mithilfe von Adtech werden die digitalen Identitäten von Menschen gecrackt, verpackt, analysiert, profiliert, versteigert, ausgetauscht und durch Online-Tracker und unzulässige Daten zu Waffen gemacht, um „Präzisionsmarketing“ zur Beeinflussung des Konsumverhaltens der Menschen zu ermöglichen.
Es stellt sich heraus, dass Amazon die Menschen vielleicht besser kennt, als sie sich selbst kennen. Facebook kann vorhersagen, was die Leute als nächstes in den sozialen Medien sagen werden, und was noch beängstigender ist, ist, dass es die Wahltendenz der Wähler vorhersagen kann. Der Cambridge-Skandal enthüllte, wie Werbetechnologie-„Microtargeting“ mit gefälschten Nachrichten und psychologischen Kriegstaktiken kombiniert wurde, um die Entscheidungen der Wähler zu beeinflussen, was dazu führte, dass Facebook Inc. Anfang des Jahres politische Anzeigen von seiner Plattform verbannte.
Der neue Liebling der Werbetechnologie ist standortbasiertes Marketing, das das Nutzerverhalten verfolgt und kartiert, es in die Offline-Welt verfolgt und auf den Datenschutz schließt, indem es App-Daten mit Daten aus anderen Quellen kombiniert, die es sammelt und Details zusammenstellt um umfangreiche Profile zu erstellen und Benutzer nach Rasse, Persönlichkeit, Finanzstatus, Alter, Essgewohnheiten, Drogenmissbrauchshistorie, politischer Zugehörigkeit, sozialen Netzwerken, sozialen Netzwerken usw. zu segmentieren. Hausieren, was nachteilige Auswirkungen haben kann.
Und die Erfassung personenbezogener Daten durch die Werbetechnik ist nicht immer korrekt, und Targeting-Entscheidungen können anstößig sein.
Beispielsweise zielen Werbeanzeigen für Kautionsbündnisse in den Vereinigten Staaten auf Nutzer mit afroamerikanischen Namen ab, und große Marken wie Pepsi werden auf äußerst radikalen Websites beworben. Eine Social-Media-Nutzerin, die sagte, sie sei während ihrer Schwangerschaft und Fehlgeburt ständig mit Elternwerbung bombardiert worden, forderte die Technologiegiganten öffentlich auf, ihren Algorithmus zu reparieren, und sagte: „Der Algorithmus war intelligent genug, um zu wissen, dass ich schwanger war, und nachdem ich eine Fehlgeburt hatte, schickte er mir eine Nachricht.“ Krankenhauswerbung, das ist gruselig“
Präzisionsmarketing kann effektiv sein, aber es kann auch schädlich sein, weil es nicht wirklich funktioniert. Die Anthropologin Tricia Wang weist darauf hin, dass dies eine Kommerzialisierung menschlicher Beziehungen auf Kosten des Kundenverständnisses darstellt. Sie sagte, dass 70 % der CMOs glauben, dass Werbetechnologie keine wertvollen Kundeneinblicke liefert. Big Data vermittelt ein Gesamtbild (ein unvollständiges und ungenaues Bild), es fehlt jedoch die menschliche Erzählung.
Ironischerweise läuft die Werbetechnologie Gefahr, die Kundenorientierung aus dem Marketing zu verdrängen, weil sie die „menschlichen Nullen und Einsen“ nicht erkennen kann. Pernille Tranberg, Mitbegründerin von Data Ethics, hilft Verbrauchern und Unternehmen, Win-Win-Alternativen zur Überwachung zu finden. Sie bringt Verbrauchern die Grundlagen der digitalen Selbstverteidigung bei, damit sie ihre Daten mit Tools wie Digi.Me und Tapx schützen und sie zu ihren eigenen Bedingungen gegen einen fairen Marktwert eintauschen können. Website-Tools wie
Gibt es ein konfrontatives Verhältnis zwischen Verbrauchern und Werbetreibenden? Ja, aber nicht ganz. Werbetreibende müssen die Entscheidungen der Menschen respektieren und dürfen keine Werbeblocker deaktivieren oder Benutzer dazu verleiten, betrügerischen Schnittstellen und Black-Box-Modellen zuzustimmen. Sie sollten zusammenarbeiten und nicht gegeneinander, und Werbetreibende müssen ihre Kunden verstehen, sonst werden sie letztendlich scheitern.
Wird Privatsphäre künstliche Intelligenz töten?
Aus dem oben Gesagten geht hervor, dass Werbetechnologien, die künstliche Intelligenz zur Datenanalyse nutzen, in ihre Privatsphäre eindringen können, wenn sie nicht aufpassen. Aus diesem Grund wollen die Menschen ihre Entscheidungsfreiheit zurückerobern. Sie haben es satt, ausspioniert zu werden und überwachen ihrerseits das Verhalten der Werbetreibenden.
Datenschutz macht künstliche Intelligenz menschlich und kann Werbetechnologie einsparen. Beispielsweise schaffen datenschutzfreundliche Tools gleiche Wettbewerbsbedingungen und können Menschen dazu ermutigen, mehr Informationen weiterzugeben. Werbetreibende analysieren anonymisierte oder verschlüsselte Daten und programmieren sie in Systeme der künstlichen Intelligenz um, um falsche Kundeneinblicke zu erschließen, die die Werbetechnologie nicht liefern kann.
Kurz gesagt, das Bewusstsein der Menschen für digitale Selbstverteidigung erwacht und die traditionelle Methode der künstlichen Intelligenz zum Missbrauch von Daten muss weiterentwickelt werden!
Das obige ist der detaillierte Inhalt vonDas Erwachen der digitalen Selbstverteidigung: Wird die Datenschutztechnologie künstliche Intelligenz töten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!