多数人自信辨真伪,然而深度伪造的兴起却令此能力或许愈发困难。
深度伪造(Deepfake)是由人工智能(AI)创建的数字内容,可涵盖音频、视频及静态图像,看似真实无比。其常将人物描绘出不实言行。网络安全专家和技术专家越来越多地警告说,这些内容可能被用于各种恶意方式,包括欺诈计划或传播错误信息。
确定风险
关于深度伪造的兴起,专家们警告的一个重点领域是名人和政界,但攻击也可能针对个人。
IEEE会员Rebecca Herold分享了一则轶事,说明了深度伪造的风险。Herold说:“我的一个朋友出差时接到了妻子的电话。她非常沮丧,抽泣着告诉他自己出了事故,身上没有钱叫拖车。我朋友几乎完全相信了这个电话,这听起来就是他妻子的声音。但当这个朋友告诉妻子需要给拖车公司电汇,挂了电话后,他又拨通了妻子的电话号码 —— 他说他差点就被骗了,声音非常真实,然而,他的妻子很安全。”
尽管深度伪造技术可以令人难以置信地信服,但通常会留下一些微妙的线索,暗示它们可能不是真实的
IEEE会员Yale Fox表示:“目前,深度伪造与真实视频并非完全无法区分,但我们正在逐渐接近。大多数人仍然可以识别深度伪造视频。”
人工智能在塑造他人正面形象方面表现出色,但在细节方面仍存在问题,例如侧面和背面的观察。需要从各个角度观察图像。深度伪造的照片和视频往往比真实牙齿更多。如果有人微笑或露出牙齿,请仔细观察
• 深度伪造的照片和视频也经常给人们太多或太少的手指。注意计算照片或视频主题上有多少手指。
在人物的侧面和角度视图方面,深度伪造技术也存在一些问题。如果你通过直播视频与某人交流,并且你怀疑这是一个深度伪造的视频,你可以请他们看向侧面,或者问一个会让他们转头的问题,比如:“嘿,我喜欢你身后墙上的那幅画。这是哪位艺术家的?”
• 深度伪造的照片和视频通常包含不一致的地方,如光线、反射和阴影。
• 深度伪造的视频通常包含快速但不自然的动作。例如,寻找/不寻常的急动或似乎在时间上的跳跃。
深度伪造音频通常具有一些不自然或不一致的音频质量,这种情况可能会偶尔出现
深度伪造技术可能会给社会带来危害,这引发了政府、大学和私营企业对检测工具的研究热潮
一些技术评估可疑内容本身。例如,一些工具可能会评估人脸上的血流,寻找不自然的混合或模糊状态。或者观察一个人眼睛的反射,看看它是否与周围环境相匹配,以此作为真实性的指标。IEEE信号处理协会主办的一次全面讨论展示了其中一些技术在实践中的应用。
其他工具可能会检查文件的元数据是否存在操作痕迹
IEEE高级会员Kayne MGladrey表示:“同样,参与深度伪造威胁的人可能会从检测算法中学习,并相应地调整他们的技术。这里非常重要的是,视频和音频内容的主要分销商需要投资大规模部署这些解决方案,以防止错误信息或虚假信息的传播。”
以上是深入理解深伪技术:IEEE的探索与研究的详细内容。更多信息请关注PHP中文网其他相关文章!