目录
保险文件和保单:复杂的用例  
语言规范化:保险语言中一种无形但强大的力量  
新型的语言聚类:混合方法  
混合语言聚类可以完成哪些任务,可扩展性如何?
更易于构建和维护的可扩展的工作流程  
结语  
首页 科技周边 人工智能 应用自然语言处理进行保险文档聚类的策略与方法

应用自然语言处理进行保险文档聚类的策略与方法

Apr 22, 2023 am 10:46 AM
机器学习 自然语言 数据科学

译者 | 李睿

审校 | 孙淑娟

保险行业的自然语言处理(NLP)可以从混合机器学习/符号方法中受益,以提高可扩展性,同时利用高级符号推理。  

保险政策:通过混合自然语言处理进行文档聚类

保险文件和保单:复杂的用例  

众所周知,高达87%的数据科学项目未能从概念验证到生产;保险领域的自然语言处理(NLP)项目也不例外。他们必须克服不可避免地与这个空间及其错综复杂相关的一些困难。  

最主要的困难来自:  

  • 保险相关文件的复杂布局。
  • 缺乏带有相关注释的大量语料库。

布局的复杂性是如此之大,以至于相同的语言概念可以根据其在文档中的存放位置而极大地改变其含义和价值。  

以下看一个简单的例子:如果尝试构建一个引擎来识别政策中是否存在“恐怖主义”覆盖范围,将不得不分配一个不同的值,无论它被放置在:  

(1)申报页面的分限额部分。  

(2)政策的“排除”章节。  

(3)增加一个或多个保险的背书。  

(4)为该承保范围添加特定内容的背书。  

缺乏高质量、大小合适的带注释的保险文件语料库,这与注释此类复杂文件的固有难度以及注释数万份保单所需的工作量直接相关。  

而这只是冰山一角。除此之外,还必须考虑保险概念正常化的必要性。  

语言规范化:保险语言中一种无形但强大的力量  

在处理数据库时,概念的规范化是一个很好理解的过程。因为它是应用推理和提高注释过程速度的关键,它对于保险领域的NLP也是至关重要的。  

规范化概念意味着在相同的标签语言元素下分组,这可能看起来非常不同。虽然有很多例子,但最重要的例子来自针对自然灾害的保险单。  

在这种情况下,不同的子限制将应用于不同的洪水区。洪水风险最高的地区通常被称为“高风险洪水区”。这个概念可以表示为:  

(1)一级洪水区  

(2)洪水风险区(SFHA)

(3)洪水区A  

等等

实际上,任何保险承保范围都可以有许多术语,这些术语可以组合在一起,根据特定的地理区域及其固有风险,最重要的自然灾害承保范围甚至有两层或三层的区别(I、II和III)。

将其乘以能找到的所有可能的元素,变体的数量很快就会变得非常大。这导致机器学习注释器和自然语言处理(NLP)引擎在尝试检索、推断甚至标记正确信息时都陷入困境。  

新型的语言聚类:混合方法  

解决复杂自然语言处理(NLP)任务的更好方法是基于混合(机器学习/符号)技术,该技术通过基于机器学习的微语言聚类改进保险工作流程的结果和生命周期,然后由符号引擎继承。  

虽然在无监督学习方法中使用传统的文本聚类来推断语义模式,并将具有相似主题的文档、具有相似含义的句子等组合在一起,但混合方法有很大的不同。使用预定义的规范化值,通过在标记数据上训练的机器学习算法在粒度级别上创建微语言聚类。一旦推断出微语言聚类,它就可以用于进一步的机器学习活动或用于基于符号层驱动推理逻辑的混合管道。  

这符合传统的编程黄金法则:“分解问题”。解决复杂用例(就像保险领域中的大多数用例一样)的第一步是将其分解成更小、更容易接受的块。  

混合语言聚类可以完成哪些任务,可扩展性如何?

符号引擎通常被标记为极其精确但不可扩展,因为在处理训练阶段未见的情况时,它们不具备机器学习的灵活性。  

然而,这种类型的语言聚类通过利用机器学习来识别概念,从而解决这个问题,这些概念随后被传递到管道中接下来的符号引擎的复杂和精确逻辑。  

可能性是无穷无尽的:例如,符号步骤可以根据概念所属的文档段改变机器学习识别的内在价值。  

下面是一个使用“分段”(将文本分割成相关区域)的符号过程来了解如何使用机器学习模块传递的标签的示例。  

想象一下,模型需要理解是否某些保险范围被排除在100页保单之外。

机器学习引擎将首先将“艺术”(Arts)覆盖范围的所有可能变体聚集在一起:  

  • “精美艺术”(Fine Arts)
  • “艺术作品”(Work of Arts)
  • “艺术品”(Artistic Items)
  • “珠宝”(Jewelry)
  • 等等。

紧接着,管道的符号部分将检查“排除”部分是否提到了“艺术”(Arts)标签,从而了解该保险是否被排除在保单之外,或者是否被覆盖(作为次级限额清单的一部分)。

由于这一点,机器学习注释者不必担心根据“艺术”(Arts)变体在策略中的位置为所有“美术”变体指定不同的标签:他们只需要为其变体注释“艺术”(Arts)的规范化值,这将作为一个微语言集群。

复杂任务的另一个有用示例是数据聚合。如果混合引擎旨在提取特定覆盖范围的子限制,以及覆盖规范化问题,则需要处理额外的复杂层:用于聚合的语言项目的顺序。  

考虑一下,手头的任务不仅是提取特定覆盖范围的子限制,而且还提取其限定符(每次事件、聚合等)。这三个项目可以按几个不同的顺序排列:  

  • Fine Arts $100,000 Per Item
  • Fine Arts Per Item $100,000
  • Per Item $100,000 Fine Arts
  • $100,000 Fine Arts
  • Fine Arts $100,000

在聚合数据的同时利用所有这些排列可以显著增加机器学习模型的复杂性。另一方面,混合方法将让机器学习模型识别归一化标签,然后让符号推理根据来自机器学习部分的输入数据识别正确的顺序。  

这只是两个例子,表明可以在可扩展的机器学习算法之上应用无限数量的复杂符号逻辑和推理,以识别规范化的概念。

更易于构建和维护的可扩展的工作流程  

除了可扩展性之外,符号推理还为整个项目工作流程带来了其他好处:  

  • 无需为复杂任务实施不同的机器学习工作流,需要实施和维护不同的标签。此外,重新训练单个机器学习模型比重新训练多个模型更快,并且资源消耗更少。
  • 由于业务逻辑的复杂部分是以符号方式处理的,因此对数据注释者来说,将人工注释添加到机器学习管道要容易得多。
  • 由于上述相同的原因,测试人员也更容易直接为机器学习标准化过程提供反馈。此外,由于工作流的机器学习部分对语言元素进行了规范化,用户将有一个较小的标签列表来标记文档。
  • 符号规则不需要经常更新:经常更新的是机器学习部分,它也可以从用户的反馈中受益。

结语  

  • 保险领域复杂项目中的机器学习可能会受到影响,因为推理逻辑很难压缩为简单的标签;这也使注释者的生活更加困难。
  • 文本位置和推论可以极大地改变具有相同语言形式的概念的实际含义。
  • 在纯粹的机器学习工作流程中,逻辑越复杂,通常需要越多的训练文档来实现生产级准确度  。
  • 出于这个原因,机器学习需要数千(甚至数万)个预先标记的文档来构建有效的模型。
  • 采用混合方法可以降低复杂性:机器学习和用户的注释创建语言集群/标签,然后这些将用作符号引擎实现其目标的起点或构建块。
  • 用户的反馈一旦得到验证,就可用于重新训练模型,而无需更改最精细的部分(可由工作流的符号部分进行处理)。

原文标题:Insurance Policies: Document Clustering Through Hybrid NLP,作者:Stefano Reitano

以上是应用自然语言处理进行保险文档聚类的策略与方法的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
威尔R.E.P.O.有交叉游戏吗?
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

一文带您了解SHAP:机器学习的模型解释 一文带您了解SHAP:机器学习的模型解释 Jun 01, 2024 am 10:58 AM

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

通过学习曲线识别过拟合和欠拟合 通过学习曲线识别过拟合和欠拟合 Apr 29, 2024 pm 06:50 PM

本文将介绍如何通过学习曲线来有效识别机器学习模型中的过拟合和欠拟合。欠拟合和过拟合1、过拟合如果一个模型对数据进行了过度训练,以至于它从中学习了噪声,那么这个模型就被称为过拟合。过拟合模型非常完美地学习了每一个例子,所以它会错误地分类一个看不见的/新的例子。对于一个过拟合的模型,我们会得到一个完美/接近完美的训练集分数和一个糟糕的验证集/测试分数。略有修改:"过拟合的原因:用一个复杂的模型来解决一个简单的问题,从数据中提取噪声。因为小数据集作为训练集可能无法代表所有数据的正确表示。"2、欠拟合如

通透!机器学习各大模型原理的深度剖析! 通透!机器学习各大模型原理的深度剖析! Apr 12, 2024 pm 05:55 PM

通俗来说,机器学习模型是一种数学函数,它能够将输入数据映射到预测输出。更具体地说,机器学习模型就是一种通过学习训练数据,来调整模型参数,以最小化预测输出与真实标签之间的误差的数学函数。在机器学习中存在多种模型,例如逻辑回归模型、决策树模型、支持向量机模型等,每一种模型都有其适用的数据类型和问题类型。同时,不同模型之间存在着许多共性,或者说有一条隐藏的模型演化的路径。将联结主义的感知机为例,通过增加感知机的隐藏层数量,我们可以将其转化为深度神经网络。而对感知机加入核函数的话就可以转化为SVM。这一

人工智能在太空探索和人居工程中的演变 人工智能在太空探索和人居工程中的演变 Apr 29, 2024 pm 03:25 PM

20世纪50年代,人工智能(AI)诞生。当时研究人员发现机器可以执行类似人类的任务,例如思考。后来,在20世纪60年代,美国国防部资助了人工智能,并建立了实验室进行进一步开发。研究人员发现人工智能在许多领域都有用武之地,例如太空探索和极端环境中的生存。太空探索是对宇宙的研究,宇宙涵盖了地球以外的整个宇宙空间。太空被归类为极端环境,因为它的条件与地球不同。要在太空中生存,必须考虑许多因素,并采取预防措施。科学家和研究人员认为,探索太空并了解一切事物的现状有助于理解宇宙的运作方式,并为潜在的环境危机

使用C++实现机器学习算法:常见挑战及解决方案 使用C++实现机器学习算法:常见挑战及解决方案 Jun 03, 2024 pm 01:25 PM

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

可解释性人工智能:解释复杂的AI/ML模型 可解释性人工智能:解释复杂的AI/ML模型 Jun 03, 2024 pm 10:08 PM

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

你所不知道的机器学习五大学派 你所不知道的机器学习五大学派 Jun 05, 2024 pm 08:51 PM

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 May 30, 2024 pm 01:24 PM

MetaFAIR联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。据所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个GPU。以LLaMA270B模型为例,其训练总共需要1,720,320个GPU小时。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练SOTA生成式AI模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的PaLM模型训练过程中出现了多达20次的损失尖峰。数值偏差是造成这种训练不准确性的根因,

See all articles