用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

WBOY
发布: 2023-09-03 08:25:09
转载
1030 人浏览过

IT之家 9 月 2 日消息,Meta 公司为了缓解当前很多计算机视觉模型对女性、有色人种存在系统性偏见问题,近日推出了名为 FACET 的全新 AI 工具,用于识别计算机视觉系统中的种族和性别偏见。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 工具目前经过 3 万张图片、含 5 万人图像的训练,特别增强了性别和肤色方面的感知,可以用于评估计算机视觉模型在各种特征。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

经过训练后,FACET工具能够回答复杂问题。例如,当识别到对象为男性时,它可以进一步识别出滑板运动员,以及浅色或深色皮肤

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

Meta 以 FACET 来评测该公司所开发的 DINOv2 模型与 SEERv2 模型,以及 OpenAI 的 OpenCLIP 模型,整体而言,OpenCLIP 在性别上的表现优于其它模型,而 DINOv 则在年龄与肤色上有较佳的判断力。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 的开源将有助于研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏见,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。IT之家在此附上 Meta 新闻稿地址,感兴趣的用户可以深入阅读。 FACET的开源将有助于研究人员进行类似的基准测试,以了解他们模型中存在的偏见,并监测采取公平解决措施所带来的影响。IT之家在此提供Meta新闻稿的链接,有兴趣的用户可以深入阅读

以上是用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具的详细内容。更多信息请关注PHP中文网其他相关文章!

来源:sohu.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板