Maison > Périphériques technologiques > IA > Le clonage vocal de l'IA crée une vulnérabilité de sécurité

Le clonage vocal de l'IA crée une vulnérabilité de sécurité

WBOY
Libérer: 2023-05-31 13:43:12
avant
916 Les gens l'ont consulté

Selon McAfee (McAfee), la technologie de l'IA entraîne une augmentation du nombre d'escroqueries vocales en ligne, et il suffit d'à peine trois secondes d'audio pour cloner la voix de la victime. McAfee a interrogé 7 054 personnes dans sept pays et a découvert qu'un adulte sur quatre avait déjà été confronté à une forme de fraude vocale par l'IA, 10 % ont déclaré avoir été fraudés et 15 % ont déclaré qu'une personne qu'ils connaissaient avait été fraudée. 77 % des victimes ont déclaré avoir perdu de l'argent à cause de cela.

Le clonage vocal de lIA crée une vulnérabilité de sécurité De plus, les chercheurs en sécurité de McAfee Research Labs ont tiré les conclusions importantes suivantes après des recherches approfondies sur la technologie de clonage vocal de l'IA et son utilisation par les cybercriminels.

Les escrocs utilisent la technologie de l'IA pour cloner les voix

La voix de chacun est unique, équivalente à une identification biologique empreintes digitales, c'est pourquoi écouter quelqu'un parler est un moyen largement accepté d'établir la confiance.

Mais 53 % des adultes partagent des données vocales en ligne au moins une fois par semaine (via des canaux tels que les réseaux sociaux et la messagerie vocale), et 49 % des adultes les partagent chaque semaine. Partagez jusqu'à 10 fois, le clonage de la voix de quelqu'un est désormais l'un des outils les plus puissants de l'arsenal d'un cybercriminel.

Avec la diffusion et le développement rapides des outils d'intelligence artificielle, il est plus facile que jamais pour les criminels de manipuler les images, les vidéos et les voix des amis et de la famille (ces dernières peuvent être le plus inquiétant) inquiet).

Les recherches de McAfee montrent que les escrocs utilisent désormais la technologie de l'IA pour cloner des voix, puis envoyer de faux messages vocaux ou appeler les contacts du carnet d'adresses des victimes pour se faire passer pour eux-mêmes. Des difficultés ont été rencontrées. 70 % des adultes déclarent qu'il est difficile de faire la distinction entre les voix clonées et les voix réelles. Il n'est pas étonnant que cette technologie soit de plus en plus populaire parmi les criminels.

45 % des personnes interrogées ont déclaré qu'elles répondraient à un message vocal frauduleux ou à une note vocale prétendant provenir d'un ami ou d'un membre de leur famille, surtout si la voix provenait de leur partenaire ou conjoint (40%), parents (31%) ou enfants (20%).

Les victimes de fraude vocale par l'IA ont subi de lourdes pertes

Les parents de plus de 50 ans sont le groupe le plus susceptible de La proportion de réponses vocales des enfants a atteint 41%. Les messages auxquels on répond le plus sont ceux qui affirment avoir eu un accident de voiture (48 %), avoir été volés (47 %), avoir perdu leur téléphone ou leur portefeuille (43 %) ou avoir besoin d'aide lors d'un voyage à l'étranger (41 %).

Mais si les victimes tombent dans le piège de la fraude vocale par l'IA, elles subissent souvent de lourdes pertes. Plus d'un tiers des victimes ont affirmé avoir perdu plus de 1 000 dollars, et 7 % ont été victimes d'une fraude allant de 5 000 à 15 000 dollars.

L'enquête a également révélé que la montée des deepfakes et de la désinformation a conduit les gens à se méfier davantage de ce qu'ils voient en ligne, avec 32 % des adultes déclarant qu'ils sont désormais plus méfiants à l'égard de ce qu'ils voient en ligne. méfiants que jamais Ils se méfient tous encore moins des médias sociaux.

Steve Grobman, directeur de la technologie chez McAfee, a déclaré : « L'intelligence artificielle offre des opportunités incroyables, mais comme pour toute technologie, cette technologie comporte toujours des défis. mains et être maltraité. C'est ce que nous constatons aujourd'hui, avec des outils d'IA faciles à utiliser qui aident les cybercriminels à intensifier leurs escroqueries de manière de plus en plus réaliste. devient plus facile

Dans le cadre de l'analyse et de l'évaluation de cette nouvelle tendance par McAfee, les chercheurs de McAfee ont passé trois semaines à étudier l'accessibilité, la facilité d'utilisation et l'efficacité de l'IA. outils de clonage vocal, son équipe a trouvé en ligne plus d'une douzaine d'outils gratuits de clonage vocal d'IA.

Des outils gratuits et payants sont facilement disponibles, et beaucoup ne nécessitent qu'une expérience et une expertise de base pour être utilisés. Pour un outil, trois secondes de parole suffisaient pour générer un clone correspondant dans 85 % des cas. La précision pourrait être encore améliorée si les criminels faisaient davantage d’efforts.

En entraînant le modèle de données, les chercheurs de McAfee ont obtenu une correspondance vocale de 95 % en utilisant seulement un petit nombre de fichiers audio.

Plus la voix clonée est précise, plus il est probable que les cybercriminels puissent inciter leurs victimes à remettre de l'argent ou à prendre d'autres mesures demandées. Parce que ces escroqueries exploitent la vulnérabilité émotionnelle inhérente à l’intimité humaine, les escrocs peuvent gagner des milliers de dollars en quelques heures seulement.

L'évolution de la technologie de clonage vocal

Grobman a déclaré : « Les outils avancés d'intelligence artificielle changent les règles du jeu pour les cybercriminels. Ils peuvent désormais cloner la voix de quelqu'un et tromper leurs amis et leur famille avec presque aucun effort. de l'argent."

Grobman a conclu : "Il est important de rester vigilant et de prendre des mesures proactives pour assurer votre sécurité, celle de vos amis et de votre famille, si vous recevez un appel d'un conjoint ou d'un membre de votre famille qui éprouve des difficultés lorsque vous demandez à envoyer de l'argent. , assurez-vous de vérifier la véritable identité de l'appelant - utilisez un mot de passe préalablement convenu ou posez une question que seule l'autre partie connaît. Les services de protection de l'identité et de la vie privée contribueront également à limiter l'empreinte numérique des informations personnelles que les criminels peuvent cloner en utilisant le. Avec l'outil de clonage qu'ils ont découvert, les chercheurs de McAfee ont découvert qu'il était facile de cloner des accents du monde entier, que la victime vienne des États-Unis, du Royaume-Uni ou de l'Inde. Elle est toujours australienne, mais l'accent le plus unique est plus difficile à cloner. Par exemple, les voix des personnes qui parlent à une vitesse, un rythme ou un style inhabituel nécessiteront plus d'efforts pour être copiées avec précision et sont donc moins susceptibles d'être ciblées.

Cependant, l’équipe de recherche estime généralement que l’intelligence artificielle a changé les règles du jeu pour les cybercriminels. La barrière à l’entrée n’a jamais été aussi basse, ce qui signifie que commettre un cybercrime n’a jamais été aussi simple.

Conseils pour empêcher le clonage vocal de l'IA

Mot de passe vocal convenu. Définissez un mot de code verbal avec vos enfants, les membres de votre famille ou vos amis proches qu'eux seuls connaissent. Élaborez un plan qui les oblige à toujours fournir un mot de code lorsqu'ils appellent, envoient des SMS ou envoient des e-mails pour obtenir de l'aide, surtout s'il s'agit de personnes âgées ou d'enfants.

Remettez toujours en question la source. S'il s'agit d'un appel, d'un SMS ou d'un e-mail provenant d'un expéditeur inconnu, ou même d'un appel d'une personne que vous connaissez, vous devez réfléchir calmement lorsque vous recevez un appel de détresse : cela ressemble-t-il vraiment à sa voix ? Vont-ils vous demander cela ? Raccrochez, répondez à l'appelant ou essayez de vérifier l'authenticité du message avant de répondre (et bien sûr avant d'envoyer de l'argent).

Cliquez et partagez avec prudence. Qui fait partie de votre réseau de médias sociaux ? Les connaissez-vous vraiment et leur faites-vous confiance ? Soyez conscient de vos amis et contacts en ligne. Plus votre réseau est étendu et plus vous partagez de contenu, plus le risque de clonage malveillant de votre identité est grand.

Utilisez un service de surveillance de l'identité pour vous assurer que vos informations personnelles identifiables ne peuvent pas être consultées ou divulguées si vos informations privées se retrouvent sur le dark web. Gardez le contrôle de vos données personnelles et évitez de vous faire usurper l'identité des cybercriminels.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal