Selon McAfee (McAfee), la technologie de l'IA entraîne une augmentation du nombre d'escroqueries vocales en ligne, et il suffit d'à peine trois secondes d'audio pour cloner la voix de la victime. McAfee a interrogé 7 054 personnes dans sept pays et a découvert qu'un adulte sur quatre avait déjà été confronté à une forme de fraude vocale par l'IA, 10 % ont déclaré avoir été fraudés et 15 % ont déclaré qu'une personne qu'ils connaissaient avait été fraudée. 77 % des victimes ont déclaré avoir perdu de l'argent à cause de cela.
De plus, les chercheurs en sécurité de McAfee Research Labs ont tiré les conclusions importantes suivantes après des recherches approfondies sur la technologie de clonage vocal de l'IA et son utilisation par les cybercriminels.
Les escrocs utilisent la technologie de l'IA pour cloner les voix
La voix de chacun est unique, équivalente à une identification biologique empreintes digitales, c'est pourquoi écouter quelqu'un parler est un moyen largement accepté d'établir la confiance.
Avec la diffusion et le développement rapides des outils d'intelligence artificielle, il est plus facile que jamais pour les criminels de manipuler les images, les vidéos et les voix des amis et de la famille (ces dernières peuvent être le plus inquiétant) inquiet).
Les recherches de McAfee montrent que les escrocs utilisent désormais la technologie de l'IA pour cloner des voix, puis envoyer de faux messages vocaux ou appeler les contacts du carnet d'adresses des victimes pour se faire passer pour eux-mêmes. Des difficultés ont été rencontrées. 70 % des adultes déclarent qu'il est difficile de faire la distinction entre les voix clonées et les voix réelles. Il n'est pas étonnant que cette technologie soit de plus en plus populaire parmi les criminels.
45 % des personnes interrogées ont déclaré qu'elles répondraient à un message vocal frauduleux ou à une note vocale prétendant provenir d'un ami ou d'un membre de leur famille, surtout si la voix provenait de leur partenaire ou conjoint (40%), parents (31%) ou enfants (20%).
Les victimes de fraude vocale par l'IA ont subi de lourdes pertes
Les parents de plus de 50 ans sont le groupe le plus susceptible de La proportion de réponses vocales des enfants a atteint 41%. Les messages auxquels on répond le plus sont ceux qui affirment avoir eu un accident de voiture (48 %), avoir été volés (47 %), avoir perdu leur téléphone ou leur portefeuille (43 %) ou avoir besoin d'aide lors d'un voyage à l'étranger (41 %).
L'enquête a également révélé que la montée des deepfakes et de la désinformation a conduit les gens à se méfier davantage de ce qu'ils voient en ligne, avec 32 % des adultes déclarant qu'ils sont désormais plus méfiants à l'égard de ce qu'ils voient en ligne. méfiants que jamais Ils se méfient tous encore moins des médias sociaux.
Steve Grobman, directeur de la technologie chez McAfee, a déclaré : « L'intelligence artificielle offre des opportunités incroyables, mais comme pour toute technologie, cette technologie comporte toujours des défis. mains et être maltraité. C'est ce que nous constatons aujourd'hui, avec des outils d'IA faciles à utiliser qui aident les cybercriminels à intensifier leurs escroqueries de manière de plus en plus réaliste. devient plus facile
Dans le cadre de l'analyse et de l'évaluation de cette nouvelle tendance par McAfee, les chercheurs de McAfee ont passé trois semaines à étudier l'accessibilité, la facilité d'utilisation et l'efficacité de l'IA. outils de clonage vocal, son équipe a trouvé en ligne plus d'une douzaine d'outils gratuits de clonage vocal d'IA.
Des outils gratuits et payants sont facilement disponibles, et beaucoup ne nécessitent qu'une expérience et une expertise de base pour être utilisés. Pour un outil, trois secondes de parole suffisaient pour générer un clone correspondant dans 85 % des cas. La précision pourrait être encore améliorée si les criminels faisaient davantage d’efforts.
Plus la voix clonée est précise, plus il est probable que les cybercriminels puissent inciter leurs victimes à remettre de l'argent ou à prendre d'autres mesures demandées. Parce que ces escroqueries exploitent la vulnérabilité émotionnelle inhérente à l’intimité humaine, les escrocs peuvent gagner des milliers de dollars en quelques heures seulement.
Grobman a déclaré : « Les outils avancés d'intelligence artificielle changent les règles du jeu pour les cybercriminels. Ils peuvent désormais cloner la voix de quelqu'un et tromper leurs amis et leur famille avec presque aucun effort. de l'argent."
Grobman a conclu : "Il est important de rester vigilant et de prendre des mesures proactives pour assurer votre sécurité, celle de vos amis et de votre famille, si vous recevez un appel d'un conjoint ou d'un membre de votre famille qui éprouve des difficultés lorsque vous demandez à envoyer de l'argent. , assurez-vous de vérifier la véritable identité de l'appelant - utilisez un mot de passe préalablement convenu ou posez une question que seule l'autre partie connaît. Les services de protection de l'identité et de la vie privée contribueront également à limiter l'empreinte numérique des informations personnelles que les criminels peuvent cloner en utilisant le. Avec l'outil de clonage qu'ils ont découvert, les chercheurs de McAfee ont découvert qu'il était facile de cloner des accents du monde entier, que la victime vienne des États-Unis, du Royaume-Uni ou de l'Inde. Elle est toujours australienne, mais l'accent le plus unique est plus difficile à cloner. Par exemple, les voix des personnes qui parlent à une vitesse, un rythme ou un style inhabituel nécessiteront plus d'efforts pour être copiées avec précision et sont donc moins susceptibles d'être ciblées.
Cependant, l’équipe de recherche estime généralement que l’intelligence artificielle a changé les règles du jeu pour les cybercriminels. La barrière à l’entrée n’a jamais été aussi basse, ce qui signifie que commettre un cybercrime n’a jamais été aussi simple.
Conseils pour empêcher le clonage vocal de l'IA
Remettez toujours en question la source. S'il s'agit d'un appel, d'un SMS ou d'un e-mail provenant d'un expéditeur inconnu, ou même d'un appel d'une personne que vous connaissez, vous devez réfléchir calmement lorsque vous recevez un appel de détresse : cela ressemble-t-il vraiment à sa voix ? Vont-ils vous demander cela ? Raccrochez, répondez à l'appelant ou essayez de vérifier l'authenticité du message avant de répondre (et bien sûr avant d'envoyer de l'argent).
Cliquez et partagez avec prudence. Qui fait partie de votre réseau de médias sociaux ? Les connaissez-vous vraiment et leur faites-vous confiance ? Soyez conscient de vos amis et contacts en ligne. Plus votre réseau est étendu et plus vous partagez de contenu, plus le risque de clonage malveillant de votre identité est grand.
Utilisez un service de surveillance de l'identité pour vous assurer que vos informations personnelles identifiables ne peuvent pas être consultées ou divulguées si vos informations privées se retrouvent sur le dark web. Gardez le contrôle de vos données personnelles et évitez de vous faire usurper l'identité des cybercriminels.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!