Maison > Périphériques technologiques > IA > le corps du texte

Les escrocs utilisent les voix de l'IA pour usurper l'identité de leurs proches et voler des millions

王林
Libérer: 2023-05-02 22:10:05
avant
804 Les gens l'ont consulté

诈骗者利用 AI 声音冒充亲人窃取数百万美元

Plus de 5 000 victimes ont été victimes d'escroqueries par téléphone en 2022.

  • Le logiciel de génération de voix AI permet aux escrocs d'imiter la voix de leurs proches.
  • Ces usurpations d'identité ont conduit des personnes à se faire arnaquer par téléphone pour 11 millions de dollars en 2022.
  • Les personnes âgées constituent la majorité de la population cible.

L'intelligence artificielle est un sujet central dans le monde de la technologie depuis un certain temps déjà, alors que Microsoft continue d'injecter ChatGPT dans ses produits et que Google tente de suivre la tendance en lançant ses propres produits d'intelligence artificielle. Même si l’IA a le potentiel de réaliser des choses vraiment impressionnantes, comme générer une image à partir d’une ligne de texte, nous commençons à voir davantage d’inconvénients dans une technologie largement non réglementée. Le dernier exemple en date est celui des générateurs de voix à intelligence artificielle utilisés pour escroquer les gens.

Les logiciels de génération de voix IA ont fait la une des journaux ces derniers temps, principalement pour voler la voix des doubleurs. Au départ, le logiciel n'avait besoin que de quelques mots pour recréer de manière convaincante la voix et le ton de l'orateur. La technologie a progressé au point où quelques secondes de conversation suffisent pour imiter fidèlement quelqu’un.

诈骗者利用 AI 声音冒充亲人窃取数百万美元

Dans un nouveau rapport du Washington Post , des milliers de victimes affirment avoir été trompées par des imposteurs se faisant passer pour des proches. Les escroqueries par imposteur seraient devenues le deuxième type de fraude le plus répandu aux États-Unis, avec plus de 36 000 dossiers déposés en 2022. Selon les responsables de la FTC, sur les 36 000 cas, plus de 5 000 victimes ont été escroquées par téléphone, avec des pertes totalisant 11 millions de dollars. le fils, plus de 15 000 $ ont été envoyés à l’escroc via un terminal Bitcoin. Une voix d'intelligence artificielle a amené le couple à croire que leur fils avait des ennuis juridiques après avoir tué un diplomate américain dans un accident de voiture.

Comme les victimes de l’histoire, ces attaques semblent principalement cibler les personnes âgées. Cela n’est pas surprenant, puisque les personnes âgées constituent l’un des groupes les plus vulnérables en matière de fraude financière. Malheureusement, les tribunaux n’ont pas encore décidé si les entreprises doivent être tenues responsables des dommages causés par les générateurs vocaux d’IA ou d’autres formes de technologie d’IA.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!