▲Images synthétisées par l'IA et pages de dons associées qui ont attiré l'attention. Photo/capture d'écran de la plateforme en ligne
Les applications de l’intelligence artificielle (IA) suscitent à nouveau la controverse.
Selon les médias, une organisation caritative de Chengdu a utilisé des photos synthétisées par la technologie de l'IA sur sa page de financement participatif en ligne. Après vérification par le service des affaires civiles, l'organisation a procédé aux rectifications correspondantes.
L'organisation caritative a affirmé dans une interview avec les médias avoir utilisé des photos composites pour protéger la vie privée des destinataires. Cependant, de nombreux détails dans les médias font qu’il est difficile de croire que cette explication soit vraie.
Il est à noter que l'utilisation de photos composites dans ce projet de collecte de fonds crée une relation d'adéquation avec le texte descriptif. Par exemple, une capture d'écran divulguée par les médias montre qu'il y a un texte de description clair et détaillé sous la photo composite, tel que « Grand-mère Zhou, qui a 80 ans, prend soin de son partenaire paralysé », etc.
Lorsque les photos ne sont pas étiquetées comme composites, la façon dont l'image et le texte sont combinés peut induire les lecteurs en erreur. Il ne s’agit pas seulement d’une utilisation inappropriée de photos composites, mais également d’une utilisation présumée de photos composites pour tromper les collecteurs de fonds.
En fait, afin de protéger la vie privée, le traitement technique de vraies photos est une option réalisable sans qu'il soit nécessaire de synthétiser de faux gros plans de personnes.
En conséquence, les explications profondément confuses et les implications trompeuses ont jeté davantage de doutes sur l'authenticité de la collecte de fonds.
En termes de motivation, améliorer l'efficacité de la communication est crucial pour de nombreuses collectes de fonds caritatives. En fait, de nombreuses réussites philanthropiques dépendent de la communication de masse.
Par exemple, le cas classique de la « fille aux grands yeux » dans l'histoire du bien-être public de mon pays a réussi à impressionner le public et a également réussi à attirer l'attention de la société sur la question de l'aide à l'éducation des filles.
Utiliser diverses technologies de communication pour accroître la visibilité des activités de collecte de fonds caritatives a toujours été l'objectif opérationnel principal de nombreuses organisations caritatives.
Si vous comparez des projets de collecte de fonds similaires d'autres organismes de protection sociale et plateformes de financement participatif, la qualité des photos générées par l'IA grâce à la formation d'imitation de photos en gros plan classiques est évidemment meilleure que les photos fournies par des gens ordinaires.
Les faibles coûts de production, associés à une qualité d'image supérieure et à l'effet de communication amélioré provoqué par la combinaison des deux, peuvent être la principale raison pour laquelle cette organisation caritative prend des risques et utilise des photos synthétiques contre l'authenticité de l'association.
Actuellement, l'utilisation de l'IA pour améliorer l'efficacité et la qualité de la production de contenu à grande échelle est devenue une solution applicative largement envisagée par de nombreux individus, entreprises et organisations ayant des besoins de communication.
Cependant, par rapport aux applications normales telles que les affiches commerciales et les vidéos de contenu, les applications caritatives de l'IA en tant qu'outil d'amélioration des effets de communication doivent encore être extrêmement prudentes, même dans la situation actuelle où des normes claires et un consensus social n'ont pas été formés. de cette technologie devrait être activement refusée.
C'est parce que l'authenticité est la bouée de sauvetage de l'industrie caritative. Dès qu’il y aura des défauts dans l’authenticité de la charité, cela suscitera non seulement des doutes du public, mais aura également un impact négatif sur la crédibilité globale de l’industrie caritative et même de la société.
La charité repose sur l'amour mutuel du public, et l'amour du public doit être basé sur l'authenticité, et ses exigences en matière d'authenticité sont bien plus élevées que celles des industries ordinaires.
La relation et les limites entre la technologie de l'IA et les fausses informations n'ont toujours pas été correctement résolues au niveau social. Par conséquent, le public a toujours été très préoccupé par le contenu généré par les nouvelles technologies telles que les photos composites.
En d’autres termes, lorsque les gens verront des articles, des photos et des vidéos produits par l’IA, ils auront instinctivement l’impression qu’ils sont irréels, voire « trompés ». Dans ces circonstances, appliquer la technologie de l’IA pour améliorer l’efficacité du secteur caritatif est sans aucun doute contre-productif.
Par conséquent, face aux nouvelles technologies controversées, la charité pourrait être plus lente à suivre. Avant que la société n’ait clairement divisé et stipulé le contenu de l’IA, il est préférable de ne pas utiliser l’IA pour produire du matériel associé.
S'il doit être utilisé, il doit être totalement ouvert et transparent pour éviter que les inquiétudes du public concernant la technologie de l'IA elle-même ne se transforment en doutes sur l'industrie caritative, nuisant ainsi aux intérêts sociaux et publics.
Écrit par Malvin (responsable des médias)
Editeur / He Rui
Relecture / Li Lijun
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!