众所周知,人工智能聊天机器人在遇到各种问题时经常生成带有种族偏见的解决方案,许多研究工作都针对这个问题。现在,一种新的训练方法已经准备好解决这个问题。该方法被称为“公平重复数据删除”或简称“FairDeDup”,是 Adobe 和俄勒冈州立大学工程学院博士生 Eric Slyman 团队的研究成果。
人工智能训练中使用的数据集去重包括删除冗余信息,从而降低整个过程的成本。目前,所使用的数据来自整个互联网,因此其中包含人类经常提出并在网上分享的不公平或有偏见的想法和行为。
根据 Slyman 的说法,“FairDeDup 删除了冗余数据,同时纳入了可控的、人类定义的多样性维度,以减少偏见。我们的方法使 AI 训练不仅具有成本效益、准确,而且更加公平。” 列表如今,人工智能聊天机器人所延续的偏见包括职业、种族或性别,还包括年龄、地理位置和文化相关的观念,这些观念显然是不公平的。
FairDeDup 是一种称为 SemDeDup 的早期方法的改进版本,尽管它被证明是一种具有成本效益的解决方案,但它经常加剧社会偏见。对此领域感兴趣的人应该阅读 Kris Hermans 的《掌握 AI 模型训练:成为训练 AI 模型专家的综合指南》,该书目前在 Kindle 上有售,售价 9.99 美元,平装版(售价 44.07 美元)。
Working For Notebookcheck技术高手谁知道怎么写?那就加入我们的团队吧!诚聘:- 新闻撰稿人详情请点击此处以上是新的培训方法旨在减少人工智能中的社会偏见的详细内容。更多信息请关注PHP中文网其他相关文章!