作者 | mczhao,攜程資深研發經理,專注於自然語言處理技術領域。
隨著消費熱點和網紅新梗的不斷湧現,在電商平台的NLP任務中,經常會出現一些之前沒有見過的字。這些字不在系統已有的字庫中,稱為"未登入詞"。
一方面,詞庫中詞的缺失影響了一些基於詞庫的分詞器的分詞質量,間接影響了文本召回質量和高亮提示的質量,即用戶文本搜尋的準確性和搜尋結果的可解釋性。
另一方面,在主流NLP深度學習演算法BERT/Transformer等等中,對中文處理時常使用字向量來取代詞向量。理論上使用詞向量的效果應是更好的,但是由於未登錄詞的原因,在實踐過程中使用字向量的效果更好。如果詞庫更加完善,那麼使用詞向量的效果將優於使用字向量的效果。
綜上,新詞發現是我們當下需要解決的問題。
中文新詞發現這個問題,在業界已經有了較成熟的解法。輸入是一些語料,將這些文字做NGram切分以後,產生候選片段。計算這些片段的一些統計特徵,再根據這些特徵判斷這個片段是不是一個字。
業界主流的做法是統計和觀察這三個面向的指標:熱度、內聚度、左右鄰字豐富度。描述這三個指標的文章網路上也有很多,這裡簡單介紹一下,細節可以參考Hello NLP和Smooth NLP的兩篇新詞發現文章。
使用詞頻來表示熱度。統計所有語料的所有片段的出現次數,那些高頻的片段往往就是一個字。
使用點互資訊來衡量內聚度:
例如,我們判斷漢庭是不是一個詞,log(P("漢庭")/P("漢")P("庭"))。漢庭成詞的機率,和"漢庭"的熱度成正比,和"漢"、"庭"的單字熱度成反比。這個很好理解,像是漢字中最常出現的字"的",隨便一個漢字和"的"搭配的機率非常高,但是並不意味這"x的"或者"的x"就是一個詞,這裡"的"的單字熱度就起了一個抑制的作用。
#左右鄰接熵來表示左右字的豐富程度。左右鄰接熵就是候選詞片段左邊或右邊出現的字的分佈的隨機性。可以拆開看左邊的熵和右邊的熵,也可以把兩個熵合併成一個指標。
例如,"香格里拉"這個片段其熱度和內聚度都非常高,對應其子片段"香格里"的熱度和內聚度也很高,但是因為"香格里"後面大部分情況都出現"拉"字,它的右鄰接熵很低,對其成詞起抑製作用,可以判斷出"香格里"三字不能單獨成詞。
經典方法的問題在於需要手動設定閾值參數。一個NLP專家在了解當前語料中片段的機率分佈以後,將這些指標透過公式組合或獨立使用,然後設定閾值來作為判斷標準,使用這個標準判斷的結果也可以做到很高的準確度。
但機率分佈或說詞頻並不是一成不變的,隨著語料庫越來越豐富,或者語料的加權熱度(通常是對應的商品熱度)波動變化,專家設定的公式中的參數和閾值也需要不斷調整。這就浪費了很多人力,讓人工智慧工程師淪為調參俠。
上述業界已有演算法的三個指標,根本來源的特徵只有一個,就是詞頻。在統計學的方法中,通常會把一些簡單又關鍵的統計量以圖片的方式展示,比如直方圖、箱線圖等等,即使沒有模型介入,光憑人看,還是能夠一眼做出正確的判斷。可以把語料切出所有長度限定的片段,把片段的詞頻歸一化為0-255,映射為二維矩陣,行表示起始的字符,列表示終止的字符,一個像素點就是一個片段,像素點的明暗程度就是這個候選詞片段的熱度。
#上圖是"浦東機場華美達飯店"這個短句的詞頻機率分佈圖,我們驚喜地發現,光憑我們的肉眼,也大致可以分出一些較為明亮的、等腰直角三角形的區塊,例如:"浦東"、"浦東機場"、"機場"、"華美達酒店"等等。這些區塊可以判斷對應的片段正是我們所需要的字。
#透過觀察詞頻機率分佈圖,我們可以把一個短句分詞問題轉換成一個影像分割問題。早期的影像分割演算法,和上述的新詞發現演算法差不多,也是基於閾值的偵測邊緣灰階變化的演算法,隨著技術發展,現在一般使用深度學習演算法,其中比較著名的是U-Net影像分割演算法。
U-Net的前半部分使用卷積下取樣,提取多層不同粒度的特徵,後半部分上採樣,將這些特徵在同一解析度下concat起來,最後透過全連接層Softmax得到像素層級的分類結果。
#對詞頻機率分佈圖的切分和對圖的切分類似,都是將位置相鄰且灰階相近的部分切出來。所以對短句的切分,也可以參考影像分割演算法,使用全卷積網路來做。使用卷積來做的原因是,無論我們在切割短句或影像的時候,都更多的關注局部訊息,就是靠近切割邊緣那些像素點。使用多層網路的原因,多層的池化可以表現出對不同層特徵的閾值判斷,例如我們對地圖地形切割的時候既要考慮坡度(一階導/差分)還需要考慮坡度的變化(二階導/差分),兩者分別取閾值並且組合方式不僅僅是簡單的線性加權而是串行的網路。
對於新詞發現場景我們設計如下的演算法:
##相比於U-Net,有以下差異:
#1)放棄了下取樣和上取樣,原因是一般用來分割的短句比較短,詞頻分佈圖的解析度本來就不高,所以模型也隨之簡化了。
2)U-Net是三分類(分塊1、分塊2、在邊緣上),此演算法只需要二分類(像素點是否為單字)。所以最後輸出的結果也是不一樣的,U-Net輸出一些連續的分塊和分割線,而我們只需要某個點是不是陽性的。
下圖是訓練完模型以後,用模型預測的結果。我們可以看到輸出結果中,"上海"(上這一行、海這一列)、"虹橋"、"商務區"這三個詞對應的像素點被識別了出來。 使用訓練好的模型,輸入攜程地標庫中的地標名稱,可以自動切分並發現出一些新詞,如下圖,雖然有個別badcase,整體上準確率還可以。 將這些字匯入到詞庫以後,搜尋分詞的準確度上升,分詞結果的字庫覆蓋率上升。因為搜尋分詞中一般傾向過召回而杜絕漏召回,業界有更激進的按字分詞召回的做法,而準確率一般透過後續的排序解決。所以分詞準確率提升了,在用戶看來搜尋結果準確率並沒有明顯提升。但可以解決部分因分詞錯誤導致的高亮提示不正確的問題。 四、模型內部分析如果想探究模型是怎麼生效的,可以看中間層的捲積核。我們先將模型捲積層的捲積核數從4簡化到1,訓練以後,透過TensorFlow的API檢視中間層:model.get_layer('Conv2').__dict__。我們發現Conv2層的捲積核如下:
可以看到第一行和第二行對模型的效果是相反的,對應了該像素點的上一行減掉當前行的差分(帶權重),如果灰度差異越大,這個像素點代表的字串越有可能成詞。
也可以看到第一行第二列0.04505884的絕對值比較小,可能是因為第一行減第二行的正向參數和第三列減第二列的負向參數相互抵消。
本文描述的是一個結構非常簡單的全卷積網路模型,還有很大的提升空間。
一是擴充特徵選取範圍。 例如,本文中輸入特徵只有詞頻,如果把左右鄰接熵也納入輸入特徵,切分的效果會更加精準。
二是增加網路深度。 透過模型分析,發現第一層卷積主要是為了因應那些用0填滿的像素點產生的case,實際關注真實熱度的捲積只有一層,如果是3x3的捲積核只能看到一階差分結果,目前像素的前後第二行和第二列就沒有考慮到。可以適當擴大卷積核大小或加深網絡,來使模型的視野更大。但加深網路也會帶來過度擬合的問題。
最後,這個模型不僅可以用來補充詞庫以提高分詞效果,並且可以直接用作分詞的參考,在分詞流程的候選詞召回和分詞路徑打分這兩個步驟中都可以應用這個模型的預測結果。
以上是基於CNN的新詞發現演算法的詳細內容。更多資訊請關注PHP中文網其他相關文章!