这是研究人员一直在思考的一个问题,因为人工智能在人们经常匿名参与的网络世界中模仿人类行为变得越来越好。
研究人员提出“人格凭证”,以帮助在线服务提供商区分真人和人工智能机器人,以打击不良行为者并保护隐私。
OpenAI、哈佛大学、微软、牛津大学、麻省理工学院、加州大学伯克利分校和其他组织的 32 名研究人员在一篇新论文中概述了该提案,该提案是随着人工智能在网络世界中越来越善于模仿人类行为而提出的。人们经常匿名参与。
他们的解决方案:让人类注册“人格凭证”,这是一种数字 ID 或令牌,可以让在线服务知道你是真实的,而不是人工智能。他们表示,这些凭证可以由各种“受信任的机构”颁发,包括政府和服务提供商(例如谷歌和苹果,它们已经要求你使用 ID 登录)。
为了让这样的系统发挥作用,我们需要在世界各地广泛采用。因此,研究人员鼓励政府、技术专家、公司和标准机构共同制定标准。
不过,并不是每个人都是粉丝。一些研究人员表示,更好的方法是让创建这些系统的公司解决人工智能带来的问题,而不是让普通人负责检测和报告人工智能机器人。
以下是人工智能领域其他值得您关注的事情。
加州在具有里程碑意义的人工智能监管方面向前迈进了一步
一项开创性的加州法案要求人工智能公司测试和监控开发成本超过 1 亿美元的系统,该法案距离成为现实又近了一步。
加州议会于 5 月获得州参议院批准后,于 8 月 28 日通过了拟议的立法。该法案现已提交州长加文·纽瑟姆 (Gavin Newsom),将成为美国第一部对大型人工智能系统实施安全措施的法律。
参议院第 1047 号法案被称为《前沿人工智能模型安全创新法案》,由代表旧金山的民主党参议员斯科特·维纳 (Scott Wiener) 提出。它遭到了 OpenAI、谷歌和 Meta 等科技公司以及至少八名州政界人士的反对,他们认为这可能会扼杀创新。
《卫报》指出,全球人工智能 50 强公司中有 35 家位于加州,其中包括 Anthropic、苹果、谷歌、Meta 和 OpenAI。
您可以在此处阅读 SB 1047 的文本,在此处阅读 OpenAI 对此的反对意见,以及在此处阅读维纳对其立法进展的回应。
近几个月来,研究人员甚至人工智能公司员工都对强大的人工智能系统的开发缺乏适当的隐私和安全保障表示担忧。在 6 月 4 日的一封公开信中,包括 AI 发明人 Yoshua Bengio、Geoffrey Hinton 和 Stuart Russell 在内的员工和行业知名人士呼吁,需要为举报 AI 公司问题的人提供保护。
与此同时,ChatGPT 的开发者 OpenAI 和 Claude 的创建者 Anthropic 上周成为第一家与美国政府签署协议的公司,允许美国情报安全研究所测试和评估他们的人工智能模型并在安全研究方面进行合作,该研究所表示。该组织于 10 月成立,是乔·拜登总统人工智能行政命令的一部分。
该研究所隶属于美国国家标准与技术研究所 (NIST) 商务部,该研究所表示,政府将“在公开发布之前和之后获得各公司主要新模型的访问权”。当然,时机是在加利福尼亚州纽瑟姆决定是否对该州拟议的人工智能法案进行权衡或将其留给联邦政府解决该问题之际。
在与政府的交易宣布后,OpenAI 的 Sam Altman 在 X 上的一篇博客文章中分享了他的观点。
“我们很高兴与美国人工智能安全研究所达成协议,对我们未来的模型进行预发布测试,”Altman 写道。 “出于多种原因,我们认为这在国家层面上发生很重要。美国需要继续领先!”
Google 的 Gemini 文本到图像生成器已准备好再次尝试
由于该工具生成了令人尴尬和令人反感的人物图像,谷歌将其文本到图像生成器重新设计后,谷歌上周表示准备发布该工具的更新版本,作为其 Gemini 聊天机器人的一部分。
图像生成器描绘人物的功能在二月份被取消,因为用户遇到了导致奇怪、偏见和种族主义图像的行为,包括将黑人和亚洲人展示为纳粹时代的德国士兵(正如雅虎新闻所指出的)以及“拒绝描绘白人,或者在提示创建维京人、纳粹和教皇的图像时插入女性或有色人种的照片”(正如 Semafor 报道)。
这种强烈反对被视为该公司在未经充分测试的情况下匆忙将人工智能产品推向市场的迹象,促使谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)发表了道歉。 “我知道它的一些回应
以上是你怎么知道那个在网上分享照片、讲故事或参与其他活动的'人”是否真的存在而不是人工智能机器人?的详细内容。更多信息请关注PHP中文网其他相关文章!