人脸识别技术在各个领域的巨大潜力几乎是不可想象的。然而,在实现其最复杂的应用程序之前,需要解决其功能中常见的某些错误和一些道德方面的考虑。
一个准确的人脸识别系统使用生物识别技术从照片或视频中绘制面部特征。其将这些信息与已知人脸数据库进行比对,以找到匹配。人脸识别可以帮助验证一个人的身份,但也会引发隐私问题。
几十年前,我们无法预测到人脸识别在未来会成为我们生活中几乎不可缺少的一部分。从解锁智能手机到进行在线(或线下)交易,这项技术已经深深扎根于我们的日常生活中。这是人工智能计算机视觉和机器学习组件的不可思议的应用。
人脸识别系统的工作方式如下:
经过训练的算法确定一个人面部的各种独特细节,例如眼睛之间的像素数或嘴唇弧度,在其他细节之间进行逻辑解释,以在系统内重建面部。然后,将这些重现的面孔与存储在系统数据库中的大量面孔进行比较。如果算法检测到重现的人脸在数学上与数据库中存在的人脸相匹配,那么系统就会“识别”它,并执行用户的任务。
除了在几纳秒内完成整个过程外,现今的人脸识别系统即使在光线不足、图像分辨率和视角不佳的情况下也能胜任工作。
与其他人工智能技术一样,人脸识别系统在用于各种目的时需要遵循一些道德原则。这些规定包括:
首先,人脸识别设备的开发必须使系统完全防止,或至少最大限度地减少基于种族、性别、面部特征、畸形或其他方面对任何人或群体的偏见。现在,有充分的证据表明,人脸识别系统在其操作中不可能100%公平。因此,构建支持该技术的系统的公司,通常要花费数百个小时来消除系统中发现的所有偏见痕迹。
像微软等知名组织通常会从尽可能多的种族社区雇佣合格的专家。在他们的人脸识别系统的研究、开发、测试和设计阶段,多样性使他们能够创建大量的数据集来训练AI数据模型。虽然庞大的数据集降低了偏差商,但多样性也是象征性的。从世界各地挑选个体有助于反映现实世界的多样性。
为了消除人脸识别系统的偏见,组织机构必须付出额外的努力。为了实现这一点,用于机器学习和标记的数据集必须多样化。最重要的是,一个公平的人脸识别系统的输出质量将是难以置信的高,因为其将在世界任何地方无缝工作,没有任何偏见的元素。
为了确保人脸识别系统的公平性,开发人员还可以在beta测试阶段让终端客户参与进来。在真实场景中测试这样一个系统的能力只会提高其功能的质量。
在工作场所和网络安全系统中使用人脸识别系统的组织,需要知道机器学习信息存储位置的所有详细信息。这样的组织在日常操作中实施技术之前,需要了解技术的局限性和能力。提供人工智能技术的公司必须对客户完全透明地了解这些细节。此外,服务提供商还必须确保他们的人脸识别系统可以被客户从任何位置使用,基于他们的便利性。系统中的任何更新必须在获得客户端的有效批准后才能进行。
如前所述,人脸识别系统部署在多个部门。制造此类系统的组织必须对其负责,特别是在技术可能直接影响任何人或团体(执法、监视)的情况下。这种系统中的责任制意味着包含用例,以防止身体或基于健康的伤害、财务挪用或其他可能由系统引起的问题。为了将控制元素引入过程中,一个合格的个人负责组织中的系统,以做出衡量和合乎逻辑的决策。除此之外,将人脸识别系统纳入日常运营的组织必须立即解决客户对该技术的不满。
在正常情况下,未经个人、团体同意,人脸识别系统不得用于窥探个人、团体或其他行为。某些机构,如欧盟(EU),有一套标准化的法律(GDPR),以防止未经授权的组织在管理机构的管辖范围内监视个人。拥有此类系统的组织必须遵守美国所有的数据保护和隐私法。
除非获得国家政府或决定性管理机构的授权,用于与国家安全或其他引人注目的情况相关的目的,否则一个组织不能使用人脸识别系统来监控任何人或团体。基本上,这项技术被严格禁止用于侵犯受害者的人权和自由。
尽管人脸识别系统被编程为无一例外地遵守这些规定,但也可能因为操作失误而造成问题。与该技术相关的一些主要问题是:
如前所述,数字支付应用程序中包含了人脸识别系统,用户可以通过该技术验证交易。由于这种技术的存在,以支付为目的的犯罪活动,如面部身份盗窃和借记卡诈骗是很有可能的。顾客选择人脸识别系统是因为其为用户提供了极大的便利。然而,在这种系统中可能会发生一个错误,即当同卵双胞胎使用他们从对方的银行账户进行未经授权的支付时。令人担忧的是,尽管人脸识别系统中存在安全协议,但人脸复制会导致资金挪用。
人脸识别系统被用于在抓捕罪犯之前识别公开的罪犯。虽然该技术作为一个概念在执法中无疑是有用的,但在其工作中存在一些明显的问题。犯罪分子可以通过几种方式滥用这项技术。例如,有偏见的人工智能概念为执法人员提供了不准确的结果,因为系统有时无法区分有色人种。通常,这类系统是用包含白人男性图像的数据集训练的。因此,在识别来自其他种族的人时,该系统的工作方式是错误的。
有几起组织或公共机构被指控使用先进的人脸识别系统非法监视平民的案件。由持续监控的个人收集的视频数据可以用于多种不正当的目的。人脸识别系统最大的缺点之一是,其提供的输出过于泛化。例如,如果一个人被怀疑犯了重罪,他们的照片会被拍摄下来,并与几个罪犯的照片一起运行,以检查这个人是否有任何犯罪记录。然而,将这些数据叠加在一起意味着人脸识别数据库将保留该男子和经验丰富的重罪犯的照片。所以,尽管个人相对无辜,但他或她的隐私还是受到了侵犯。其次,这个人可能会被认为是不好的,尽管据所有的说法表明其是清白的。
正如所述,与人脸识别技术相关的主要问题和错误源于,技术缺乏进步、数据集缺乏多样性,以及组织对系统的低效处理。但,人工智能及其应用在现实需求中的应用范围应是无限的。人脸识别技术的风险通常发生在当该技术的工作方式与实际需求不同时。
但可预见,随着未来技术的不断进步,与技术相关的问题将会得到解决。人工智能算法中与偏见相关的问题最终将被消除。然而,要使这项技术完美地工作而不违反任何道德规范,组织必须对此类系统保持严格的治理水平。通过更大程度的治理,人脸识别系统的错误可以在未来得到解决。因此,必须对此类系统的研究、开发和设计进行改进,以实现积极的解决方案。
以上是人脸识别技术的道德原则的详细内容。更多信息请关注PHP中文网其他相关文章!