Attention-Based LSTM算法及文本分類模型分析

時間:2022-08-19 11:06:11

導(dǎo)語:Attention-Based LSTM算法及文本分類模型分析一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

Attention-Based LSTM算法及文本分類模型分析

摘要:本次研究針對文本數(shù)據(jù)處理工作中的文本分類項目提出了一套基于attention-basedlstm算法的分類模型,根據(jù)Atten-tion-Model的基本原理對Attention-BasedLSTM算法數(shù)據(jù)處理方式進行了詳細介紹。最后將Attention-BasedLSTM算法應(yīng)用于來自國內(nèi)外主流門戶網(wǎng)站文本數(shù)據(jù)的分類處理工作。經(jīng)統(tǒng)計分析發(fā)現(xiàn),Attention-BasedLSTM算法相比于常規(guī)LSTM算法和Bi-LSTM體現(xiàn)出了更高的分類準確率水平,在文本數(shù)據(jù)處理方面具有一定的應(yīng)用價值。

關(guān)鍵詞:數(shù)學(xué)模型;文本分類;Attention-BasedLSTM算法

1引言

在自然語言處理領(lǐng)域中,文本分類是一個十分重要的研究方向,以往的文本分類研究主要涉及機器分類器訓(xùn)練、文本特征提取、文本預(yù)處理等內(nèi)容。隨著圖像識別與深度學(xué)習(xí)技術(shù)不斷成熟,深度學(xué)習(xí)模型在機器翻譯領(lǐng)域得到了廣泛的應(yīng)用,并且在特征提取和數(shù)據(jù)預(yù)處理方面體現(xiàn)出了獨特的優(yōu)勢。除此之外,合理應(yīng)用文本分類技術(shù),還有利于簡化文本數(shù)據(jù)的搜索流程,提高用戶在門戶網(wǎng)站中的內(nèi)容搜索效率,在改善用戶體驗的同時也助于減輕服務(wù)器運行壓力,節(jié)約計算資源。

2Attention-Model的基本原理

Attention-Model(注意力模型)借鑒了人腦將注意力集中在某一事物而忽略其他事物的特點,對關(guān)鍵數(shù)據(jù)資源進行集中處理。在自然語言處理方面,Attention-Model通常會與Encoder-Decoder結(jié)合起來使用。Encoder-Decoder模型的核心思想是利用Encoder模塊對輸入序列實施編碼,再通過Decoder模塊實施解碼,方便與Attention-Model模型相結(jié)合。Encoder-Decoder模型的基礎(chǔ)框架如圖1所示。本次研究將圖1中的“input”表示為序列X={x1,x2,x3,…,xn},將“output”表示為序列Y={y1,y2,y3,…,yn}。在計算過程中,首先通過Encoder模塊對輸入序列實施編碼,若將編碼結(jié)果記為C,則C的表達方式為:C=F(x1,x2,x3,…,xn)(1)在此基礎(chǔ)上通過Decoder模塊對C實施解碼,將解碼結(jié)果記為yi,yi的表達方式為:C=G(y1,y2,y3,…,yi-1)(2)由此可知,Decoder在輸出yi的過程中自始至終采用相同的語義信息,序列X中的各個元素與序列Y中的各個元素均有著相同的影響力,并且各個元素的先后順序直接決定元素的影響力。另外,在語義編碼code向量維度的限制下,序列輸入較為的模型會存在部分有效信息丟失的問題,這與人腦的注意力分配機制有著本質(zhì)的區(qū)別。因此,本次研究提出了Attention-Model機制,針對當前輸出yi的注意力概率分布狀況加以計算,獲取與yi元素一一對應(yīng)的語義編碼信息,進而實現(xiàn)針對當前輸出的優(yōu)化。Attention-Model與Encoder-Decoder相結(jié)合的模型框架如圖2所示。根據(jù)圖2可知,每一個輸出元素都有對應(yīng)含有輸入序列概率分布的語義編碼C,因此可以通過如下公式來表示輸出結(jié)果yi:yi=F(Ci,y1,y2,y3,…,yi-1)(3)上式中,Ci為輸入序列X處于編碼階段時的歷史狀態(tài),設(shè)S(xi)為輸入xi在編碼過程中的非線性函數(shù)處理結(jié)果,根據(jù)編碼過程中輸入序列所對應(yīng)的狀態(tài)值能夠計算出這些狀態(tài)值對于輸出yi的注意力概率分布,并在此基礎(chǔ)上獲取與之相對應(yīng)的語義編碼Ci,具體計算方法為:(4)上公式將輸入序列的元素的數(shù)目記為T,將輸入xj對輸出yi的注意力概率記為aij。在文本處理工作中,編碼階段和解碼階段最常見的配置模型為RNN(遞歸神經(jīng)網(wǎng)絡(luò))模型,具體計算過程如圖3所示。在圖3中,F(xiàn)函數(shù)是一種對齊概率計算方法,通過該函數(shù)對輸出yi在前解碼階段的隱藏層節(jié)點實施概率遠處即可獲得注意力分布概率。

3Attention-BasedLSTM文本分類模型

根據(jù)Attention-Model的基本原理可知,將Attention-Model與注意力概率分布結(jié)合起來使用,能夠強化關(guān)鍵輸入對輸出的影響。為了將Attention-Model應(yīng)用于文本分類工作,本次研究提出了Attention-BasedLSTM(LongSh-ort-TermMemory)編碼模型,基于含有注意力概率分布的語義編碼來輸出文本特征向量。針對注意力分布概率進行計算是Attention-Model的核心任務(wù),計算方法具體如下:在圖4中,atk代表注意力概率,即節(jié)點t對于輸出k的影響為權(quán)重,其計算方式?jīng)Q定Attention-Model的效率和作用?;疚谋緮?shù)據(jù)分類處理的工作特點,本次研究將At-tention-Model應(yīng)用于編碼階段。設(shè)定文本輸入序列為x1,x2,x3,…,xT,針對該序列實施向量累加處理并計算均值,進而獲取文本總體輸入向量X',同時將X'定義為編碼階段最后的輸入。Hk對應(yīng)輸入X'的隱藏層狀態(tài)值。h1,h2,h3,…,ht分別對應(yīng)輸入序列x1,x2,x3,xT的隱藏層狀態(tài)值?;贏ttention-Model的LSTM模型結(jié)構(gòu)如圖5所示。在圖5中,aik代表歷史節(jié)點對于最后節(jié)點的注意力概率,X'代表文本總體的輸入向量表示,x1,x2,x3,…,xT代表文本的詞語表示。計算對于x1,x2,x3,…,xT對于文本整體的影響力權(quán)重,能夠有針對性地強化關(guān)鍵詞的作用,同時弱化非關(guān)鍵詞的作用。在數(shù)據(jù)處理方面,首先要計算注意力分布概率的語義編碼,具體方法如下:以上兩公式將輸入序列第i個元素對應(yīng)的隱藏層的狀態(tài)值記為hi,將最后輸入對應(yīng)的隱藏層狀態(tài)記為hk,將輸入序列的元素的數(shù)目記為T,將節(jié)點i對于節(jié)點K的注意力概率權(quán)重,U、W、v分別為權(quán)重矩陣。

4文本分類實驗

本次研究基于Google提供的機器學(xué)習(xí)庫Tensorflow對基于Attention-BasedLSTM數(shù)學(xué)模型的文本分類算法進行實驗分析,通過Python對算法進行編程,程序運行平臺為Ubuntu12.04操作系統(tǒng)。實驗語料數(shù)據(jù)分別來自Sougou實驗室語料庫、Amazonreviewsdataset、YahooAnswersdataset、Yelpreviewsdataset、DBPediadataset等。以Sougou實驗室語料庫為例,該數(shù)據(jù)集是由Sougou實驗室從科技、汽車、娛樂、財經(jīng)、體育等5個門戶版塊所提取的新聞數(shù)據(jù),第個類別包含12000條測試數(shù)據(jù)和90000條訓(xùn)練數(shù)據(jù),單個文本由內(nèi)容、標題、類別三部分組成,所有文本均為長文本。同時選取LSTM、Bi-LSTM與本次研究所提出的At-tention-BasedLSTM進行對比,各個算法的分類準確率對比結(jié)果如表1所示。經(jīng)實驗研究發(fā)現(xiàn),本次研究所提出的Attention-BasedLSTM算法對于各種不同來源的語料庫均表現(xiàn)出了最佳的分類準確率水平。

5結(jié)束語

本次研究將Attention-Model與Encoder-Decoder結(jié)合起來并建立了一套基于Attention-BasedLSTM數(shù)學(xué)模型的文本分類算法。將該算法應(yīng)用于文本數(shù)據(jù)分類處理工作,能夠有效強化關(guān)鍵詞對于整體文本的影響力,進而得出較為準確的注意力分布概率,最終實現(xiàn)文本數(shù)據(jù)的高精度分類。通過該技術(shù)對文本數(shù)據(jù)實施精準分類,有助于互聯(lián)網(wǎng)公司向用戶精準投送文本資料,提高網(wǎng)絡(luò)資訊服務(wù)水平。

作者:黃阿娜 單位:咸陽職業(yè)技術(shù)學(xué)院