In der Welt des Deepfakes ist es manchmal schwierig, zwischen wahr und falsch zu unterscheiden.
Der KI-Algorithmus „Deepfake“ kann verschiedene realistische Bilder und Videos von Menschen erzeugen und wird häufig im Bereich der Gesichtsveränderung eingesetzt. Die KI-Technologie zur Gesichtsveränderung hat jedoch immer wieder zu Kontroversen geführt, beispielsweise die Verwendung von Deepfake zur Produktion von Videos für Erwachsene, die den Menschen große Probleme bereitet hat.
Laut ausländischen Medien pcmag gab das FBI kürzlich an, dass Betrüger die Deepfake-Technologie genutzt haben, um sich in Vorstellungsgesprächen für Remote-Arbeit als Bewerber auszugeben und so Stellenangebote bei IT-Unternehmen zu ergattern, um auf deren Kunden oder Finanzdaten zuzugreifen IT-Datenbanken und/oder proprietäre Informationen.
Einige Unternehmen haben aufgedeckt, dass die personenbezogenen Daten einiger Bewerber sogar einer anderen Person gehören.
Charaktergesicht vor und nach dem Gesichtsersatz. Bildquelle: Facebook/Meta
Hier ist es. Am 28. Juni Ortszeit erklärte das Internet Crime Complaint Center (IC3) des FBI in einer öffentlichen Konsultation, dass die Zahl der Beschwerden über die Nachahmung als Bewerber um eine Stelle in letzter Zeit zugenommen habe. Betrüger nutzen Deepfake-Technologie und von Opfern gestohlene personenbezogene Daten, um Arbeitgeber dazu zu verleiten, sie für Remote- oder Homeoffice-Jobs einzustellen.
Diese Jobs umfassen Positionen im Bereich IT und Computerprogrammierung sowie Datenbanken und Software.
Bildquelle: https://www.ic3.gov/Media/Y2022/PSA220628
In der Vergangenheit nutzte Deepfake KI-gestützte Programme, um realistische, aber gefälschte Personas zu erstellen. Auf der Videoseite kann die Technologie die Gesichter von Prominenten auf die Körper anderer Menschen kopieren; auf der Audioseite kann die Technologie die Stimme einer Person klonen und sie so manipulieren, dass sie sagt, was Sie wollen.
Diesmal ergab die Konsultation des FBI jedoch, dass die Deepfake-Technologie auch Identitätsdiebstahl erleichtert. Betrüger nutzen bei Online-Interviews mit potenziellen Bewerbern Voice-Spoofing oder Stimmfälschung. Betrüger nutzen diese Deepfake-Techniken, um sich bei IT-Unternehmen für Remote- oder Homeoffice-Jobs zu bewerben.
Obwohl das FBI nicht klar machte, was die ultimativen Ziele der Betrüger waren, stellte es fest, dass es sich dabei um den Zugriff auf PII (persönlich identifizierbare Informationen) von Kunden, Finanzdaten, Unternehmens-IT-Datenbanken und/oder geschützte Informationen handelte. Diese Art von Informationen kann Betrügern dabei helfen, wertvolle Informationen von einem Unternehmen zu stehlen und andere Identitätsbetrugspläne durchzuführen.
Quelle: https://www.bangkokpost.com/
Die gute Nachricht ist jedoch, dass Arbeitgeber Möglichkeiten haben, Deepfakes zu erkennen. Während Betrüger Videointerviews mit potenziellen Arbeitgebern geführt haben, stellt das FBI fest, dass die KI-basierte Technologie immer noch Mängel aufweist, wenn Betrüger sprechen.
Zum Beispiel sind die Bewegungen und Lippenbewegungen des Interviewers vor der Kamera nicht vollständig auf seine Sprechstimme abgestimmt. Manchmal stimmt ein Husten, Niesen oder ein anderes Hörverhalten nicht mit dem überein, was visuell dargestellt wird.
Das obige ist der detaillierte Inhalt vonIst Ihre Remote-Mitarbeiterin wirklich sie selbst? Das FBI deckt Arbeitssuchenden auf, die Deepfakes missbrauchen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!