编辑 | 白菜叶
可验证性是维基百科的核心内容政策:声明需要有引用的支持。维护和提高维基百科参考文献的质量是一项重要的挑战,迫切需要更好的工具来帮助人类完成这项工作。
在这里,Samaya AI 和 Meta FAIR 的研究人员表明,可以借助由信息检索系统和语言模型提供支持的人工智能 (AI) 来解决改进参考的过程。
这种基于神经网络的系统(这里称之为 SIDE)可以识别不太可能支持其主张的维基百科引文,然后从网络上推荐更好的引文。该团队在现有的维基百科参考资料上训练这个模型,因此从数千名维基百科编辑的贡献和综合智慧中学习。通过众包,研究人员观察到,对于最有可能被该系统标记为无法验证的前 10% 的引用,与最初引用的参考文献相比,人们在 70% 的情况下更喜欢该系统提供的替代方案。
为了验证该系统的适用性,研究人员构建了一个演示来与英语维基百科社区互动,发现根据 SIDE 的说法,对于相同的前 10% 最有可能无法验证的声明,SIDE 的首次引用推荐的首选频率是现有维基百科引用的两倍。结果表明,基于人工智能的系统可以与人类一起使用,以提高维基百科的可验证性。
该研究以「Improving Wikipedia verifiability with AI」为题,于 2023 年 10 月 19 日发布在《Nature Machine Intelligence》。
维基百科是访问量最大的网站之一,每年的页面浏览量达到五万亿,是当今最重要的知识来源之一。因此,维基百科上的知识几乎都是可验证的,这一点至关重要:维基百科用户应该能够使用可靠的外部来源查找并确认维基百科上的声明。为了促进这一点,维基百科文章提供了指向支持该主张的背景材料的内联引用。质疑维基百科声明的读者可以遵循这些指示并自行验证信息。
然而,在实践中,这个过程可能会失败:引文可能并不包含受质疑的主张,或其来源可能值得怀疑。这样的说法可能仍然是正确的,但细心的读者无法轻易地用引用来源中的信息来验证它们。假设维基百科的说法是真实的,其验证过程分为两个阶段:(1)检查现有来源的一致性;(2)如果失败,则寻找新的证据。
如上所述,维基百科声明的验证需要对语言的深入理解和对在线搜索的掌握。机器可以在多大程度上学习这种行为?从基础人工智能进展的角度来看,这个问题很重要。例如,验证需要能够检测自然语言中的逻辑蕴涵,并将主张及其上下文转换为寻找证据的最佳搜索词——这两个长期存在的问题主要在某种程度上的综合环境中进行了研究。
从实际角度来看,这同样重要。机器验证器可以帮助维基百科编辑标记哪些引文可能会触发失败的验证,并建议用什么来替换引文,以防它们当前不支持各自的主张。这可能很重要:搜索潜在证据并仔细阅读搜索结果需要时间和大量的认知努力。将人工智能助手集成到这个过程中可能有助于减少这两种情况。
图示:SIDE概述。(来源:论文)
在最新的工作中,Samaya AI 和 Meta FAIR 的研究人员开发了 SIDE,一个基于人工智能的维基百科引文验证器。SIDE 在 Wikipedia 上发现根据当前引文可能无法验证的声明,为此,扫描网络快照以寻找替代方案。
它的行为是通过维基百科本身来学习的:使用精心策划的英语维基百科声明及其当前引用的语料库,研究人员训练(1)一个检索器组件,将声明和上下文转换为经过优化的符号和神经搜索查询,以在网络规模的语料库中查找候选引用;(2) 一个验证模型,根据现有的和检索到的引文验证给定声明的可能性进行排名。
该团队使用自动指标和人工注释来评估他们的模型。为了自动测量该系统的准确性,他们检查了 SIDE 在高质量文章中恢复现有维基百科引用的情况(如维基百科特色文章类所定义)。
研究人员发现,在近 50% 的情况下,SIDE 会准确返回维基百科中使用的源作为其最佳解决方案。值得注意的是,这并不意味着其他 50% 是错误的,只是他们不是当前的维基百科来源。
该团队还测试了 SIDE 作为引文助手的能力。在用户研究中,他们将现有的维基百科引用放在 SIDE 生成的引用旁边。然后,用户评估所提供的引文在多大程度上支持该主张,以及来自 SIDE 或维基百科的哪个引文更适合验证。
总体而言,超过 60% 的时间用户更喜欢 SIDE 的引用而不是维基百科的引用,当 SIDE 将非常低的验证分数与维基百科的引用相关联时,这一比例会增加到 80% 以上。
论文链接:https://www.nature.com/articles/s42256-023-00726-1
以上是Meta FAIR 和 Samaya AI 团队利用 AI 提高维基百科的可验证性的详细内容。更多信息请关注PHP中文网其他相关文章!