目錄
保險文件與保單:複雜的用例 
語言標準化:保險語言中一種無形但強大的力量  
新型的語言聚類:混合方法 
混合語言聚類可以完成哪些任務,可擴展性如何?
首頁 科技週邊 人工智慧 應用自然語言處理進行保險文檔聚類的策略與方法

應用自然語言處理進行保險文檔聚類的策略與方法

Apr 22, 2023 am 10:46 AM
機器學習 自然語言 數據科學

譯者| 李睿

審校| 孫淑娟

保險業的自然語言處理(NLP)可以從混合機器學習/符號方法中受益,以提高可擴展性,同時利用高階符號推理。

應用自然語言處理進行保險文檔聚類的策略與方法

保險文件與保單:複雜的用例 

#眾所周知,高達87%的資料科學專案未能從概念驗證到生產;保險領域的自然語言處理(NLP)項目也不例外。他們必須克服不可避免地與這個空間及其錯綜複雜相關的一些困難。 

最主要的困難來自:  

  • 保險相關文件的複雜版面。
  • 缺乏大量帶有相關註解的語料庫。

佈局的複雜性是如此之大,以至於相同的語言概念可以根據其在文件中的存放位置而極大地改變其含義和價值。

以下看一個簡單的例子:如果嘗試建立一個引擎來識別政策中是否存在「恐怖主義」覆蓋範圍,將不得不分配一個不同的值,無論它被放置在:  

(1)申報頁面的分限額部分。 

(2)政策的「排除」章節。 

(3)增加一個或多個保險的背書。 

(4)為此承保範圍新增特定內容的背書。 

缺乏高品質、大小合適的帶註釋的保險文件語料庫,這與註釋此類複雜文件的固有難度以及註釋數萬份保單所需的工作量直接相關。 

而這只是冰山一角。除此之外,還必須考慮保險概念正常化的必要性。 

語言標準化:保險語言中一種無形但強大的力量  

#在處理資料庫時,概念的標準化是一個很好理解的過程。因為它是應用推理和提高註釋過程速度的關鍵,它對於保險領域的NLP也是至關重要的。 

規範化概念意味著在相同的標籤語言元素下分組,這可能看起來非常不同。雖然有許多例子,但最重要的例子來自針對自然災害的保險單。 

在這種情況下,不同的子限制將應用於不同的洪水區。洪水風險最高的地區通常被稱為「高風險洪水區」。這個概念可以表示為:  

(1)一級洪水區 

(2)洪水風險區(SFHA)

(3)洪水區A  

##等等

實際上,任何保險承保範圍都可以有許多術語,這些術語可以組合在一起,根據特定的地理區域及其固有風險,最重要的自然災害承保範圍甚至有兩層或三層的區別(I、II和III)。

將其乘以能找到的所有可能的元素,變體的數量很快就會變得非常大。這導致機器學習註釋器和自然語言處理(NLP)引擎在嘗試檢索、推斷甚至標記正確資訊時都陷入困境。

新型的語言聚類:混合方法 

解決複雜自然語言處理(NLP)任務的更好方法是基於混合(機器學習/符號)技術,該技術透過基於機器學習的微語言聚類改善保險工作流程的結果和生命週期,然後由符號引擎繼承。

雖然在無監督學習方法中使用傳統的文本聚類來推斷語義模式,並將具有相似主題的文檔、具有相似含義的句子等組合在一起,但混合方法有很大的不同。使用預先定義的規範化值,透過在標記資料上訓練的機器學習演算法在粒度層級上建立微語言聚類。一旦推斷出微語言聚類,它就可以用於進一步的機器學習活動或用於基於符號層驅動推理邏輯的混合管道。 

這符合傳統的程式設計黃金法則:「分解問題」。解決複雜用例(就像保險領域中的大多數用例一樣)的第一步是將其分解成更小、更容易接受的區塊。 

混合語言聚類可以完成哪些任務,可擴展性如何?

符號引擎通常被標記為極其精確但不可擴展,因為在處理訓練階段未見的情況時,它們不具備機器學習的靈活性。 

然而,這種類型的語言聚類透過利用機器學習來識別概念,從而解決這個問題,這些概念隨後被傳遞到管道中接下來的符號引擎的複雜和精確邏輯。 

可能性是無窮無盡的:例如,符號步驟可以根據概念所屬的文件段改變機器學習辨識的內在價值。 

以下是一個使用「分段」(將文字分割成相關區域)的符號過程來了解如何使用機器學習模組傳遞的標籤的範例。 

想像一下,模型需要理解是否某些保險範圍被排除在100頁保單之外。

機器學習引擎將首先將“藝術”(Arts)覆蓋範圍的所有可能變體聚集在一起:  

  • “精美藝術”(Fine Arts)
  • “藝術作品」(Work of Arts)
  • 「藝術品」(Artistic Items)
  • 「珠寶」(Jewelry)
  • #等等。

緊接著,管道的符號部分將檢查「排除」部分是否提到了「藝術」(Arts)標籤,從而了解該保險是否被排除在保單之外,或者是否被覆蓋(作為次級限額清單的一部分)。

由於這一點,機器學習註釋者不必擔心根據「藝術」(Arts)變體在策略中的位置為所有「美術」變體指定不同的標籤:他們只需要為其變體註釋「藝術」(Arts)的規範化值,這將作為一個微語言集群。

複雜任務的另一個有用範例是資料聚合。如果混合引擎旨在提取特定覆蓋範圍的子限制,以及覆蓋規範化問題,則需要處理額外的複雜層:用於聚合的語言項目的順序。 

考慮一下,手邊的任務不僅是提取特定覆蓋範圍的子限制,還提取其限定符(每次事件、聚合等)。這三個項目可以以幾個不同的順序排列:  

    ##Fine Arts $100,000 Per Item
  • Fine Arts Per Item $100,000
  • Per Item $100,000 Fine Arts
  • $100,000 Fine Arts
  • Fine Arts $100,000
在聚合資料的同時利用所有這些排列可以顯著增加機器學習模型的複雜性。另一方面,混合方法將讓機器學習模型識別歸一化標籤,然後讓符號推理根據來自機器學習部分的輸入資料識別正確的順序。 

這只是兩個例子,表明可以在可擴展的機器學習演算法之上應用無限數量的複雜符號邏輯和推理,以識別規範化的概念。

更容易建構和維護的可擴展的工作流程 

除了可擴展性之外,符號推理還為整個專案工作流程帶來了其他好處:  

    無需為複雜任務實施不同的機器學習工作流程,需要實施和維護不同的標籤。此外,重新訓練單一機器學習模型比重新訓練多個模型更快,且資源消耗更少。
  • 由於業務邏輯的複雜部分是以符號方式處理的,因此對資料註釋者來說,將手動註釋添加到機器學習管道要容易得多。
  • 由於上述相同的原因,測試人員也更容易直接為機器學習標準化過程提供回饋。此外,由於工作流程的機器學習部分對語言元素進行了規範化,使用者將有一個較小的標籤清單來標記文件。
  • 符號規則不需要經常更新:經常更新的是機器學習部分,它也可以從使用者的回饋中受益。
結論 

    保險領域複雜專案中的機器學習可能會受到影響,因為推理邏輯很難壓縮為簡單的標籤;這也使註釋者的生活更加困難。
  • 文本位置和推論可以大幅改變具有相同語言形式的概念的實際意義。
  • 在純粹的機器學習工作流程中,邏輯越複雜,通常需要越多的訓練文件來實現生產級準確度  。
  • 基於這個原因,機器學習需要數千(甚至數萬)個預先標記的文件來建立有效的模型。
  • 採用混合方法可以降低複雜性:機器學習和使用者的註解建立語言叢集/標籤,然後這些將用作符號引擎實現其目標的起點或建構塊。
  • 使用者的回饋一旦驗證,就可用於重新訓練模型,而無需更改最精細的部分(可由工作流程的符號部分進行處理)。

原文標題:#Insurance Policies: Document Clustering Through Hybrid NLP##,作者:Stefano Reitano

以上是應用自然語言處理進行保險文檔聚類的策略與方法的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

透過學習曲線辨識過擬合和欠擬合 透過學習曲線辨識過擬合和欠擬合 Apr 29, 2024 pm 06:50 PM

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

通透!機器學習各大模型原理的深度剖析! 通透!機器學習各大模型原理的深度剖析! Apr 12, 2024 pm 05:55 PM

通俗來說,機器學習模型是一種數學函數,它能夠將輸入資料映射到預測輸出。更具體地說,機器學習模型是一種透過學習訓練數據,來調整模型參數,以最小化預測輸出與真實標籤之間的誤差的數學函數。在機器學習中存在多種模型,例如邏輯迴歸模型、決策樹模型、支援向量機模型等,每種模型都有其適用的資料類型和問題類型。同時,不同模型之間存在著許多共通性,或者說有一條隱藏的模型演化的路徑。將聯結主義的感知機為例,透過增加感知機的隱藏層數量,我們可以將其轉化為深度神經網路。而對感知機加入核函數的話就可以轉換為SVM。這一

人工智慧在太空探索和人居工程中的演變 人工智慧在太空探索和人居工程中的演變 Apr 29, 2024 pm 03:25 PM

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

可解釋性人工智慧:解釋複雜的AI/ML模型 可解釋性人工智慧:解釋複雜的AI/ML模型 Jun 03, 2024 pm 10:08 PM

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

See all articles