ChatGPT的影响已经触及各个行业,这证明人工智能正在改变世界。无论如何,并非这些进展从根本上是确定的。我们不能忽视这样一个事实,即人工智能缺乏内在的道德指南针或事实核查系统来指导其决策,尽管它在许多领域提供了令人兴奋的新机会。
随着世界以人工智能为中心的趋势不断进展,我们必须坚持对我们所听到的一切进行事实核实。不明智地信任人工智能是不可取的,因为有些工具可能会误解上下文并自信地犯错,甚至操纵数据。
最明显和最根本的是安全。违背“首先不伤害”基本原则将会带来严重而无法挽回的后果,如背叛。在2018年,一名司机死于一辆特斯拉自动驾驶汽车与混凝土护栏的碰撞。2019年的一篇研究论文试图证明,有策略地在道路上绘制的线条可能会劫持人工智能算法,或导致其撞毁车辆,尽管这个案例是一个灾难性的异常值。
限制访问、维护信息诚实性并保持可访问性的一致性是安全性的核心。数以千计的算法利用了人工智能在稳健性和安全性方面的弱点。这些恶意攻击继续被想象。在缺乏全面保护措施的情况下,模拟智能工程师将为每项新的安全措施定制适当的安全比例,这更为重要。人工智能可能会被设计缺陷或特定对抗性攻击的弱点所愚弄或削弱。如果这是真的,那么也有可能劫持某人的轮椅进入安全区域。
防止伤害也是隐私原则的核心。有太多信息泄露,所有这些都为不法分子提供机会,可以在未经个人同意的情况下识别或分析——了解其幸福、金钱和个人生活的数据。81%的美国人认为数据收集的好处大于风险,这令人担忧。研究人员发现,有色人种和少数民族群体相较于其他群体更容易受到伤害。由于其代表性不足,因此在前面提到的泄漏之后,更有必要对它的信息进行更有效的匿名化处理。
关于基于计算机的智能,简单性是一个广泛的特征。用户至少知道其正在与人工智能而不是人类进行交互。最极端情况下,所有专业周期和信息均已报告、可访问且具有意义。这个例子充分说明了缺乏透明度会导致的后果,英国的考试评分丑闻非常具有代表性。该算法在评定得分时,不仅仅考虑学生的成绩,而且还会考虑学校历史得分记录和获得相同分数的学生人数。
道德和公平必须成为人工智能的目标。其必须遵守既定和强制执行的社会规范,也称为法律。这很简单,但在技术上具有挑战性。真正的情况开始于公共权力执行过时或采取自由企业战略。寻找正确的道德平衡是人工智能工程师和所有者应对利益相关者利益、手段和目的、隐私权以及数据收集等方面的责任。不仅仅是在工作场所,大型科技企业经常被指责延续性别歧视。女性语音助手被积极分子和研究人员认为是将女性作为员工和家长的观点标准化。
职责确保可以针对先前引用的不同组件调查框架。为了筛选进展并防止利益损失,目前许多组织都在内部建立负责任的人工智能。但是,其可能不允许外部控制或审查。在这方面,Clearview AI就是一个例子。该企业的面部识别技术胜过市场上的所有其他技术,然而其为私人所有且所有者自主决定。如果被罪犯团伙或独裁政权利用,这可能会使无数人处于危险之中。
以上是反对盲目信任人工智能的六个因素的详细内容。更多信息请关注PHP中文网其他相关文章!