Kürzlich gab das Büro für öffentliche Sicherheit der Stadt Baotou bekannt, dass Herr Guo, der gesetzliche Vertreter eines Technologieunternehmens in Fuzhou, innerhalb von 10 Minuten um 4,3 Millionen Yuan betrogen wurde, weil die KI sein Gesicht veränderte #🎜🎜 #, was weit verbreitete Bedenken hinsichtlich der Sicherheit künstlicher Intelligenz auslöst. Heiße Diskussion.
In diesem Zusammenhang sagte Feng Yue, ein intelligenter Kernexperte am MaMa Consumer Artificial Intelligence Research Institute: „Die Kernfunktionen von Live-Fälschungsbekämpfung, Zwischenidentifizierung und anderen Technologien bestehen
darin, das Inhärente zu vermeiden.“ Mängel bei der Gesichtserkennung , Fotos, Videos, Masken, Simulationsmodelle usw. effektiv identifizieren, insbesondere der Betrug mit Gesichts- und Stimmveränderung, der bei diesem Vorfall aufgetreten ist.“
Zu den potenziellen Risiken, die KI mit sich bringt, sagte „AI-Godfather“ Hinton einmal in einem Interview mit der New York Times: „Im Vergleich zum Klimawandel könnteKI eine dringendere Bedrohung für die Menschheit darstellen.“ 🎜🎜#" Der Realität nach ist diese Aussage nicht „alarmistisch“. Das „Böse“ in der Büchse der Pandora kommt allmählich zum Vorschein. Gleichzeitig treibt AIGC die Entwicklung der KI rasch auf eine neue Stufe.
Das „Böse“ der Technologie verhindern: Sehen heißt nicht unbedingt glaubenLaut dem öffentlichen WeChat-Konto „Peace Baotou“ meldete das Untersuchungsbüro für Cyberkriminalität im Bereich Telekommunikation des Büros für öffentliche Sicherheit der Stadt Baotou einen Fall von Telekommunikationsbetrug. Herr Guo, der gesetzliche Vertreter eines Technologieunternehmens in der Stadt Fuzhou #🎜🎜 # wurde innerhalb von 10 Minuten betrogen
Glücklicherweise wurden 3,3684 Millionen Yuan an betrogenen Geldern abgefangen und „intelligente KI-Technologie zur Gesichtsveränderung und Lautmalerei“ eingesetzt.Wie haben sie das gemacht? Dies ist ein komplizierter Prozess, aus der Sicht des Opfers wurde Herr Guo hauptsächlich durch Gesichtsveränderungstechnologie und Onomatopoeia-Technologie
getäuscht Versteckte Bedeutungen hinter dem Vorfall sind erforderlich, z. B. über den Kanal, über den der Kriminelle Kontakt mit dem Opfer aufgenommen hat, wie er an das Konto der entsprechenden sozialen Software gelangt, wie er weiß, als wen er sich ausgeben muss, und wie er ihn erhält entsprechendes Bild- und Tonmaterial sowie die Auswahl des Opfers.Wenn wir uns auf die beiden Schlüsselthemen Gesichtsveränderungstechnologie und Onomatopoeia-Technologie
konzentrieren, sind die Hauptproblemedie Erfassung grundlegender Daten, das Trainingsgerüst und das Echtzeit-Rendering . Auf Datenebene können die Audio- und Videoinformationen des Imitators aus Social-Engineering-Bibliotheken wie sozialen Medien abgerufen oder aus dem Fotoalbum und dem Chatverlauf eines verlorenen schwarzen Telefons extrahiert werden. In Bezug auf das Trainings-Framework unterstützt die Bearbeitungssoftware mehrerer inländischer Mainstream-Kurzvideoplattformen derzeit gesichtsverändernde Spezialeffekte ohne Warnmeldungen. In ausländischen Open-Source-Frameworks gibt es mehr als 30 Synthesemethoden. Im Hinblick auf das Echtzeit-Rendering kann ein gekapertes Rendering auch durch Angriffsvorgänge wie das Flashen des Telefons und die Installation aufdringlicher Software erreicht werden. Deshalb „Sehen heißt nicht unbedingt glauben“
Hinter der Technik steckt immer bewusst „Böses“, vor dem man sich hüten muss.Ersticken Sie es im Keim, nutzen Sie die „
魔 Methode“, um die „Magie“ zu besiegen Risiken sind unvermeidlich. Wie können wir also „Magie“ nutzen, um „Magie“ zu besiegen?
Derzeit verfügen viele Finanzinstitute über entsprechende Umsetzungsmaßnahmen und damit verbundene Technologieanwendungen. Beispielsweise wurden Technologien wieIn-vivo-Fälschungsbekämpfung und Vermittleridentifizierung auch in Finanzgeschäftsszenarien eingesetzt.
„Die Kernfunktion von Live-Fälschungsbekämpfung, Zwischenidentifizierung und anderen Technologien besteht darin, die Mängel der Gesichtserkennung zu vermeiden
und Fotos, Videos, Masken, Simulationsmodelle usw. effektiv zu identifizieren. Insbesondere in diesem Vorfall sagte Feng Yue, ein intelligenter Kernexperte am MaMaConsumer Artificial Intelligence Research Institute: „Basierend auf solchen technologischen Innovationen ist MaMaConsumer Finance derzeit in der Lage, 99 % der Batch-Angriffe zu blockieren, was Risiken wie z.“ gefälschte Informationen, Vermittlungsagentur, gefälschte Anträge, langfristige Kreditvergabe, Telekommunikationsbetrug usw. „Im Vergleich zu Finanzinstituten ist soziale Software am Ende des gesamten Prozesses verpflichtet, Fälschungsmechanismen einzuführen und den Benutzern Anrufauthentifizierungserinnerungen in Echtzeit bereitzustellen, um zu markieren, ob der Peer-Benutzer ungewöhnliches Verhalten oder gefälschte Bilder aufweist Fälschungsanomalien. Durch frühere Risikowarninformationen kann das Auftreten von Risikofolgen wirksamer verhindert werden.
Zusätzlich zur plattformbezogenen Umsetzung kann die Öffentlichkeit auch einige Selbsthilfemaßnahmen ergreifen. Derzeit gibt es eine Art Technologie, die die Verwendung von Benutzerdaten für Gesichts- oder Stimmänderungen verhindern kann Art der Technologie heißtAdversarial Sample Technology#🎜 🎜#. Am Beispiel menschlicher Gesichtsbilder kann die Technologie zur Gesichtsveränderung unwirksam gemacht werden, indem man dem Bild eine gegnerische Störungsmaske beifügt, die für das bloße Auge unsichtbar ist. Benutzer können diese Art von Technologie nutzen, um ihre Medieninformationen wie Bilder und Stimmen in sozialen Medien zu schützen, bevor sie sie veröffentlichen.
Schließlich ist „Vorsorgebewusstsein“ der Grundstein aller „Magie“ , und die Öffentlichkeit muss auch den Sicherheitsschutz von persönlichen Gegenständen und Informationen stärken.
„Klicken Sie nicht auf unbekannte SMS-Links, E-Mail-Links usw., scannen Sie keine QR-Codes aus unbekannten Quellen, laden Sie keine APPs herunter, geben Sie Ihr Gesicht und andere persönliche biometrische Informationen nicht einfach an andere weiter, tun Sie es nicht einfach.“ Geben Sie Ihren Personalausweis, Ihre Bankkarte, Ihren Verifizierungscode und andere Informationen preis, geben Sie animierte Bilder, Videos usw. nicht übermäßig preis und teilen Sie sie nicht“, schlug Feng Yue vor. „Es gibt keine Garantie dafür, dass Mobiltelefone und andere mobile Geräte nicht verloren gehen. Sie können regelmäßig WeChat-Chat-Aufzeichnungen löschen, relevante Spuren von Personen verbergen, mit denen Sie eine enge Beziehung haben, Fotoalben von Mobiltelefonen verschlüsseln oder die Datenschutzfunktion Ihres Geräts aktivieren.“ Mobiltelefon. Diese alltäglichen Verhaltensweisen können zu Betrug führen.
Es dauert lange, bis man Schritt für Schritt zum Erfolg kommt. Die Verhinderung des „Missbrauchs“ der Technologie der künstlichen Intelligenz wird auch im digitalen Zeitalter ein zentrales Thema bleiben.Quelle: Informationen zur Finanzbranche
Das obige ist der detaillierte Inhalt vonDurch KI-Face-Swapping-Betrug wurden 4,3 Millionen Yuan betrogen. Verbraucherexperten empfehlen sofort drei Abwehrmaßnahmen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!