Maison > Périphériques technologiques > IA > le corps du texte

Pouvez-vous reconnaître les fausses photos créées par l'IA ?

PHPz
Libérer: 2023-04-11 20:49:04
avant
1774 Les gens l'ont consulté

L'ère du voir c'est croire est révolue, l'IA a appris à créer la réalité.

Le 21 août, un incendie s'est déclaré dans la montagne Jinyun à Beibei, Chongqing. Le feu s'est propagé aux villages et villes au pied de la montagne. La route de montagne est escarpée et sablonneuse, mais la moto est assez agile. Les motocyclistes qui transportaient peu à peu des provisions jusqu'à la montagne sont devenus les protagonistes de ce sauvetage en cas d'incendie de forêt et sont également devenus le centre de l'attention des gens sur les réseaux sociaux.

Dans le même temps, les internautes ont souligné que « 8 photos sur 10 des incendies de forêt de Chongqing ont été peintes par AI, mais les commentaires ci-dessous étaient tellement émus qu'ils ont pleuré ».

Pouvez-vous reconnaître les fausses photos créées par l'IA ?

En fait, il n'est peut-être pas si facile de juger si une telle image est vraie ou fausse. Ci-dessous, vous pouvez l'essayer. L’IA peut également en dessiner davantage. Construire une chaise en avocat, ouvrir le marché vers le ciel, mettre un chat dans une scène médiévale pour trouver le Wi-Fi... ce sont toutes de petites choses. Jason Allen, président d'une société américaine de jeux de société, a utilisé l'outil de peinture IA Midjourney pour générer une pièce de "Space Opera" qu'il a lui-même peaufinée. Il a également remporté le premier prix du concours d'art de l'État du Colorado. Équitable. Le média technologique TechCrunch a évalué le "AI Painter" non censuré comme "Deepfakes pour tous (deepfakes tout-puissants)".

À quoi sert le changement de visage par l'IA ?

La « fausse » technologie d’IA connue antérieurement est une technologie de contrefaçon profonde, communément connue sous le nom de changement de visage de l’IA. En 2019, un rapport indiquait qu’il y avait déjà à cette époque des dizaines de milliers de vidéos produites à l’aide de la technologie deepfake sur Internet.

Le rapport indique également que 96 % de ces vidéos sont des vidéos pornographiques et que les protagonistes de ces vidéos pornographiques sont toutes des femmes. Les plus populaires d'entre elles sont les vidéos mettant en vedette des actrices européennes et américaines et des idoles féminines coréennes.

Henry Ajder, un chercheur impliqué dans le rapport, a déclaré que les utilisateurs de forums deepfakes demandent ou discutent de vidéos pornographiques d'échange de visage mettant en vedette des femmes qu'ils connaissent (comme des ex-petites amies). Ils veulent les voir figurer dans des clips pornographiques.

La peinture IA ne consiste pas seulement à changer de visage.

Ouvrez la boîte de Pandore

Nous avons entré 5 instructions sombres pour voir si la peinture IA est illimitée ?

AI semble avoir une compréhension limitée de la violence. Mais l’interprétation du sexe est juste – et elle le pense aussi.

Stable Diffusion, ce "AI peintre" open source et puissant s'est mis en place un "Safety Checker", qui équivaut à un examen automatique : une fois que l'image générée est détectée comme étant suspectée de violer la politique de contenu, elle sera inclus dans la politique de contenu S'il est indiqué qu'il ne peut pas être utilisé pour générer des « images inconfortables, pornographiques, haineuses, violentes et autres », la machine bloquera l'image.

Nous avons envoyé les « mauvaises photos » que nous avons générées pour examen, et la machine n'a jugé que six photos nues de Justin Bieber comme des « violations ». Cependant, nous avons également réussi à générer plusieurs photos de Trump embrassant Churchill à travers le temps et l'espace, et les photos ont été jugées « sûres » par le modérateur.

Évidemment, du fait que nous avons réussi à générer des photos nues de Justin Bieber contre sa volonté, la révision automatique de Stable Diffusion peut être désactivée. De cette façon, il ne pourra plus vous rejeter.

Afin de restreindre l'IA et les mauvaises pensées que les gens ont tendance à avoir face à la boîte de Pandore, le plus célèbre « peintre IA » DALL·E 2 fait l'objet d'une censure plus stricte.

Certains internautes ont collecté toutes les instructions qui lui ont valu de recevoir des avertissements de violation de la politique de contenu, notamment "Des singes britanniques mangeant du fish and chips", "Un calamar conduisant un monocycle dans un accident avec délit de fuite" et "Photos de Jésus soumis à une attaque nucléaire". tests d'acidité". Toute description pouvant impliquer de la haine, de la violence, de la pornographie et les noms de toutes personnalités connues font partie des mots interdits dans DALL·E 2. Vous ne pouvez donc pas manipuler DALL·E 2 pour vous dessiner une image de Trump et Biden s'embrassant, mais Stable Diffusion le peut.

Les fausses photos générées par l'IA ont des failles

Cependant, les photos actuelles générées par l'IA ne sont pas parfaites.

Zheng Shujing, journaliste au Mingcha Studio, un projet de vérification des faits de The Paper, a déclaré que les images générées par l'IA auront certaines caractéristiques, telles que des bulles, des arrière-plans surréalistes, la taille des dents des personnages, des formes de cheveux non naturelles, etc. Les premiers changements de visage de l’IA étaient sujets à des problèmes lors de la présentation de modèles continus et répétés, souvent de tailles inégales. De nos jours, certaines entreprises se sont améliorées grâce à des réseaux contradictoires génératifs continuellement améliorés, et ces problèmes sont devenus relativement moins fréquents, mais ils peuvent parfois encore être visibles à partir de détails tels que la déformation de l'arrière-plan et l'asymétrie corporelle.

Les détails sont là où l'IA échoue souvent. Par exemple, l'hélicoptère sur la photo ci-dessous n'a pas de dérive.

Pouvez-vous reconnaître les fausses photos créées par l'IA ?

De plus, les informations générales peuvent également aider à distinguer si une photo est authentique ou non. « Par exemple, si vous me donnez une photo et qu'on dit qu'elle provient des incendies de forêt de Chongqing, si vous trouvez que c'est la dernière. La date de modification de cette photo est postérieure à l'incident, ce n'est pas grave. C'est juste une fausse photo. Nous vous contactons parfois aussi pour des informations de base, comme vérifier le modèle de l'hélicoptère sur la photo, etc. "

Mais la plupart des outils avec laquelle elle entre en contact ne vous dira pas directement si une photo est réelle ou fausse, et vous devez vous fier aux gens pour porter des jugements en fonction de circonstances spécifiques.

À mesure que les compétences de peinture de l'IA deviennent de plus en plus compétentes, il deviendra de plus en plus difficile de faire la distinction entre le vrai et le faux. La certitude de la réalité se relâche. À cette époque, les gens entendent souvent des voix comme celle-ci dans leur esprit : « Cette photo a l’air trop réelle, donc elle est trop fausse. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal