首页 > 电脑教程 > 故障排查 > 选择退出:AI时代的4个隐私问题

选择退出:AI时代的4个隐私问题

Susan Sarandon
发布: 2025-02-24 15:03:07
原创
430 人浏览过

The Opt Out: 4 privacy concerns in the age of AI

您不仅仅是一个数据点。退出机制将帮助您夺回您的隐私。

人工智能发展的最新浪潮迫使我们许多人重新思考生活的关键方面。例如,数字艺术家现在需要专注于保护他们的作品免受图像生成网站的侵害,而教师则需要应对一些学生可能将论文写作外包给ChatGPT的情况。

但人工智能的涌现也带来了每个人都应该了解的重要隐私风险——即使您不打算弄清楚这项技术认为您作为美人鱼的样子。

缺乏透明度

布鲁金斯学会(一个位于华盛顿特区的非营利性机构,进行研究以解决各种各样的国家和全球问题)人工智能和新兴技术倡议政策主任杰西卡·布兰特说:“我们常常很少了解谁在使用我们的个人信息,如何使用以及出于何种目的。”

广义而言,机器学习——人工智能系统变得更精确的过程——需要大量数据。系统拥有的数据越多,其准确性就越高。像ChatGPT和谷歌的Bard这样的生成式人工智能平台,以及图像生成器Dall-E,通过一种称为抓取的技术获得部分训练数据:它们扫描互联网以收集有用的公共信息。

但是,有时由于人为错误或疏忽,本不应该公开的私人数据,如敏感的公司文件、图像甚至登录列表,可能会进入互联网的可访问部分,任何人都可以借助谷歌搜索运算符找到它们。一旦这些信息被抓取并添加到人工智能的训练数据集中,几乎没有人能够将其删除。

印度科技公司Wipro的全球首席隐私官伊万娜·巴托莱蒂(Ivana Bartoletti)兼弗吉尼亚理工大学帕姆普林商学院访问网络安全和隐私执行研究员说:“人们应该能够自由地分享照片,而不用担心它最终会用于训练生成式人工智能工具,或者更糟糕的是——他们的图像可能会被用来制作深度伪造。”“在互联网上抓取个人数据破坏了人们对其数据的控制。”

数据抓取只是人工智能系统训练数据的潜在问题来源之一。国际隐私专业人员协会的高级隐私工程研究员卡塔琳娜·科尔纳(Katharina Koerner)表示,另一个来源是个人数据的二次使用。当您自愿出于特定目的放弃部分信息,但它最终用于您未同意的其他目的时,就会发生这种情况。多年来,企业一直在积累客户的信息,包括电子邮件地址、送货详情以及他们喜欢的产品类型,但在过去,他们能利用这些数据做的事情不多。如今,复杂的算法和人工智能平台提供了一种简单的方法来处理这些信息,以便他们可以更多地了解人们的行为模式。这可以通过仅向您提供您可能真正关心的广告和信息来使您受益,但它也可能会根据您的邮政编码限制产品供应并提高价格。科尔纳说,鉴于一些公司已经拥有大量其客户提供的数据,企业这样做非常诱人。

她解释说:“人工智能使从可用数据中提取有价值的模式变得容易,这些模式可以支持未来的决策,因此,当数据并非为此目的而收集时,企业非常容易将个人数据用于机器学习。”

对于开发人员来说,从大型训练数据集中选择性地删除您的个人信息极其复杂,这并没有什么帮助。当然,删除具体信息(如您的出生日期或社会安全号码(请勿向生成式人工智能平台提供个人详细信息))可能很容易。但例如,执行符合欧洲《通用数据保护条例》的完整删除请求是另一回事,也许是解决的最复杂挑战,巴托莱蒂说。

[相关:如何阻止学校设备共享您家人的数据]

由于其复杂的微服务结构(每个部分都作为独立单元工作),即使在传统的IT系统中,选择性内容删除也很困难。但科尔纳表示,在人工智能的背景下,这甚至更难,甚至目前是不可能的。

那是因为这不仅仅是点击“ctrl F”并删除所有带有某人姓名的数据的问题——删除一个人的数据需要从头开始重新训练整个模型的昂贵程序,她解释说。

退出机制将越来越难

一个营养良好的AI系统可以提供令人难以置信的大量分析,包括帮助用户了解人们行为的模式识别。但这不仅仅是由于技术的优势——还因为人们倾向于以可预测的方式行事。人类天性的这一特殊方面允许人工智能系统在无需了解您的大量具体信息的情况下也能正常工作。因为当了解像您这样的人就足够时,了解您有什么意义呢?

华盛顿特区专注于人工智能审计和风险的律师事务所BNH.AI的合伙人布伦达·梁(Brenda Leong)说:“我们已经到了只需要最少的几条信息——只需三到五条关于一个人的相关数据,这很容易就能获得——他们就会立即被吸收到预测系统中。”简而言之:如今,要远离这个系统越来越难,甚至是不可能的。

这让我们几乎没有自由,因为即使是多年来一直努力保护自己隐私的人,也会有人工智能模型为他们做出决定和推荐。这可能会让他们觉得他们所有的努力都白费了。

梁继续说道:“即使这对我来说是一种有益的方式,比如为我提供符合我收入水平的贷款,或者我真正感兴趣的机会,它也是在我无法以任何方式控制的情况下对我做的。”

使用大数据将整个人群归类也留不下任何细微差别——对于异常值和例外情况——我们都知道生活充满了这些。魔鬼在细节中,但也在将概括性的结论应用于特殊情况下,事情可能会变得非常糟糕。

数据的武器化

另一个关键的挑战是如何在算法决策中灌输公平性——尤其是在人工智能模型的结论可能基于错误的、过时的或不完整的数据时。目前众所周知,人工智能系统可能会延续其人类创造者的偏见,有时会给整个社区带来可怕的后果。

随着越来越多的公司依赖算法来帮助他们填补职位或确定司机的风险状况,我们的数据更有可能被用来反对我们自己的利益。您有一天可能会受到这些系统做出的自动化决策、建议或预测的损害,而几乎没有可用的追索权。

[相关:自主武器可能会在战争中犯下严重的错误]

当这些预测或标签在无法区分真假的人工智能算法眼中成为事实时,这也是一个问题。对于现代人工智能来说,所有的一切都是数据,无论是个人数据、公共数据、事实数据还是完全虚构的数据。

更多集成意味着更少安全性

就像您的互联网存在与您最弱的密码一样强大一样,大型人工智能工具与其他平台的集成也为攻击者提供了更多撬动点,以便在试图访问私人数据时进行尝试。如果您发现其中一些在安全方面达不到标准,请不要感到惊讶。

这甚至还没有考虑到所有在您不知情的情况下收集您数据的公司和政府机构。想想您家附近的监控摄像头、在音乐会场地周围跟踪您的面部识别软件、在您当地的公园里跑来跑去的戴着GoPro的孩子们,甚至试图在TikTok上走红的人们。

处理您数据的人和平台越多,出错的可能性就越大。更大的出错空间意味着您的信息泄露到互联网上的可能性更高,在那里它很容易被抓取到人工智能模型的训练数据集中。如上所述,这非常难以撤销。

您可以做什么

坏消息是,目前您对此无能为力——既无法解决源于包含您信息的AI训练数据集的潜在安全威胁,也无法解决可能阻止您获得理想工作的预测系统。目前,我们最好的办法是要求监管。

欧盟已经通过了《人工智能法案》的第一份草案,该法案将根据可接受的风险水平来规范公司和政府如何使用这项技术。与此同时,美国总统乔·拜登已通过行政命令为开发符合道德和公平的人工智能技术提供资金,但国会尚未通过任何法律来保护美国公民在人工智能平台方面的隐私。参议院一直在举行听证会以了解这项技术,但它还没有接近制定一项联邦法案。

在政府工作的过程中,您可以并且应该倡导包括人工智能平台在内的隐私法规,并保护用户免受其数据被误处理的侵害。与您周围的人就人工智能的发展进行有意义的对话,确保您了解您的代表在联邦隐私法规方面的立场,并投票给那些最关心您利益的人。

阅读更多PopSci 故事。

以上是选择退出:AI时代的4个隐私问题的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
作者最新文章
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板