如何使用Nightshade保护艺术品免受生成式AI的侵害

PHPz
发布: 2024-03-14 22:55:02
转载
959 人浏览过

译者 | 陈峻

审校 | 重楼

如您所见,当前正在发生的这场人工智能(AI)革命已经席卷了各行各业。其中给人最直观的感受便是,在基于交互式人机对话的基础上,AI算法不但可以生成类似人类语言的文本,而且能够根据一个(组)单词创建图像和视频。不过,这些人工智能工具(尤其是像DALL-EMidjourney等从文本到图像的生成器)所使用的训练数据,往往来自受版权保护的数据源。

如何使用Nightshade保护艺术品免受生成式AI的侵害

在数字领域中,阻止人工智能生成工具利用受版权保护的图像进行训练是具有挑战性的任务。各行各业的艺术家们一直在不同层面上努力维护他们的作品,以免受人工智能训练数据集的侵害。在保护知识产权方面,面临着诸多复杂问题,因为数字世界的快速发展使得监管和保护工作变得更加困难。 艺术家们可能会采取技术性措施,如添加水印或数字签名,以确保其作品的原始性和独特性。然而,这些措施并非总

如今,Nightshade的问世将彻底改变现状。Nightshade是一种免费的人工智能工具,可以对生成式人工智能工具的结果进行“污染”,从而帮助艺术家们维护自己的版权。这一工具的推出意味着创作者们拥有了更大的掌控权,可以更好地保护他们的作品免受侵犯。Nightshade的出现为艺术家们提供了一种全新的方式来应对潜在的版权侵权问题,使他们能够更加自信和安心地展示自己的作品。这种技术的引入将为整个创作领域带来革命性的变革,为艺

什么是人工智能毒化(AI Poisoning)?

从概念上说,人工智能毒化是指在人工智能算法的训练数据集中“下毒”的一种行为。这类似于故意向人工智能提供错误的信息,导致经过训练的人工智能因失灵而无法检测到图像。在技术上,Nightshade之类的工具可以通过改变数字图像中的像素,使其在人工智能的训练下看起来完全不同。而这种改变,从人眼的角度看来,仍然与原始的图像基本一致。

如果你在网络上上传一张被篡改过的猫的图片,对人类来说,这张照片可能看起来只是一只普通的猫。但是对于人工智能系统来说,它可能会因为被篡改而无法准确识别这只猫,导致混淆和错误的分类。这表明了在训练人工智能系统时,数据的准确性和完整性至关重要,因为数据中的错误或欺骗性信息可能会对系统的学习和表现产生负面影响。因此,确保数据的质量和真实性是培训人工智能模型的关键步骤,以避免出现误导性的结果和不准确的判断。

此外,在人工智能的训练数据过程中,鉴于规模效应,如果有足够多的伪造或毒化了的图像样本,那么就会影响人工智能的理解准确度,进而折损其根据给定提示,生成准确图像的能力。

虽然生成式人工智能的技术仍在突飞猛进地发展,但是就目前而言,作为模型训练基础的数据,一旦发生了逃过人眼可见的错误,就会潜移默化地损害模型后续的迭代。这样就起到了我们保护原创数字作品的效果。也就是说,据此,那些不想将其图像用于人工智能数据集的数字创作者,可以有效地保护自己的图像作品,不会在未经许可的情况下,被导入到生成式人工智能中。

目前,已有一些平台开始为创作者提供此类可“不将作品纳入人工智能训练数据集”的选项。当然,对于人工智能模型训练者而言,他们也需要对此引起足够的重视。

Glaze等其他数字艺术品保护工具相比,Nightshade的实现方式是截然不同的。Glaze可以防止人工智能算法模仿特定的图像风格,而Nightshade则能够从人工智能的视角改变图像的外观。当然,这两款工具均由芝加哥大学计算机科学教授Ben Zhao开发。

如何使用Nightshade

虽然该工具的创建者建议用户将NightshadeGlaze一起使用,但是它其实也可以作为一个独立的工具,来保护用户的作品。总体而言,使用该工具并不复杂,您可以仅通过几个步骤,仅使用Nightshade来保护自己的图像作品。不过,在开始之前,您需要牢记如下三件事:

  1. Nightshade仅适用于WindowsMacOS,而对于GPU的支持比较有限,且要求至少拥有4GB VRAM。目前它并不支持那些非英伟达的GPU和英特尔Mac。幸好Nightshade团队提供了支持Nvidia GPU的列表链接-- https://www.php.cn/link/719e427d3b21a35b8cdcd2d88db6ca11(您可能会注意到:GTXRTX GPU就位于“CUDA支持的GeForceTITAN产品”部分)。此外,您也可以在CPU上运行Nightshade,但是其性能会有所降低。
  2. 如果您使用的是GTX 166016501550,那么PyTorch库中的一个bug会导致您无法正常启动或使用NightshadeNightshade背后的团队可能会在未来通过从PyTorch迁移到Tensorflow的方式,来修复该问题,不过目前尚无较好的解决方案。而且,该问题还延伸到了此类显卡的Ti变体上。在测试中,我虽然在Windows 11电脑上为其提供了管理员访问权限,但是仍需等待了几分钟才能够打开该程序。希望您的情况会有所不同。
  3. 如果您的作品上有很多实体形状或背景,那么您可能会遇到一些伪影(artifact)问题。这可以通过降低“毒化”强度来解决。

您需要执行如下步骤,来具体使用Nightshade对图像实现保护。请记住,本指南虽然使用的是Windows版本,但它同样适用于macOS版本。

  1. Nightshade下载页面处下载其Windows或macOS版本。
  2. 由于Nightshade是以存档文件夹的形式被下载到本地的,因此无需额外安装。在下载完成后,您只要解压其ZIP文件夹,并双击运行Nightshade.exe即可。
  3. 如下图所示,在弹出的界面上,请点击左上角的“选择”按钮,选择要保护的图像。注意,您可以同时选择多个图像进行批处理。
  4. 根据自己的喜好,您可以通过滑块来调整对图像进行操作的强度(Intensity)和渲染质量(Render Quality)。数值越高,毒化效果越强,但是也会在输出图像中引入伪影。
  5. 接着,请单击“输出”部分下的“另存为”按钮,为输出文件选择目的地。
  6. 最后,请点击底部的“运行Nightshade”按钮,以运行程序并完成对图像的毒化。

同时,您也可以选择“毒(poison)”标签。如果标签没有被人为选择的话,Nightshade会自动检测并推荐一个单词标签。当然,如果标签不正确或过于笼统的话,您也可以手动更改。请记住,只有在Nightshade处理单张图片时,才可以使用此设置。

如果一切顺利,您将会得到一幅在人眼看来与原始图像完全相同,但是被人工智能算法识别为与原作截然不同的图像。这就意味着您的艺术作品已受到了保护,可免遭人工智能生成器的影响。

译者介绍

陈峻(Julian Chen),51CTO社区编辑,具有十多年的IT项目实施经验,善于对内外部资源与风险实施管控,专注传播网络与信息安全知识与经验。

原文标题:How to Use Nightshade to Protect Your Artwork From Generative AI

以上是如何使用Nightshade保护艺术品免受生成式AI的侵害的详细内容。更多信息请关注PHP中文网其他相关文章!

来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责声明 Sitemap
PHP中文网:公益在线PHP培训,帮助PHP学习者快速成长!