《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于Transformer模型的中文文本自動校對研究
基于Transformer模型的中文文本自動校對研究
2020年電子技術(shù)應(yīng)用第1期
龔永罡,裴晨晨,廉小親,王嘉欣
北京工商大學(xué) 計算機與信息工程學(xué)院食品安全大數(shù)據(jù)技術(shù)北京市重點實驗室,北京100048
摘要: 提出將Transformer模型應(yīng)用于中文文本自動校對領(lǐng)域。Transformer模型與傳統(tǒng)的基于概率、統(tǒng)計、規(guī)則或引入BiLSTM的Seq2Seq模型不同,該深度學(xué)習(xí)模型通過對Seq2Seq模型進行整體結(jié)構(gòu)改進,從而實現(xiàn)中文文本自動校對。通過使用公開數(shù)據(jù)集對不同模型進行對比實驗,采用準(zhǔn)確率、召回率與F1值作為評價指標(biāo),實驗結(jié)果表明,Transformer模型相比較于其他模型,在中文文本自動校對的性能上有了大幅提升。
中圖分類號: TN957.52;TP312
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.191013
中文引用格式: 龔永罡,裴晨晨,廉小親,等. 基于Transformer模型的中文文本自動校對研究[J].電子技術(shù)應(yīng)用,2020,46(1):30-33,38.
英文引用格式: Gong Yonggang,Pei Chenchen,Lian Xiaoqin,et al. Research on automatic proofreading of Chinese text based on Transformer model[J]. Application of Electronic Technique,2020,46(1):30-33,38.
Research on automatic proofreading of Chinese text based on Transformer model
Gong Yonggang,Pei Chenchen,Lian Xiaoqin,Wang Jiaxin
College of Computer and Information Engineering Beijing Key Laboratory of Food Safety Big Data Technology, Beijing Technology and Business University,Beijing 100048,China
Abstract: This paper proposes to apply Transformer model in the field of Chinese text automatic proofreading. Transformer model is different from traditional Seq2Seq model based on probability, statistics, rules or BiLSTM. This deep learning model improves the overall structure of Seq2Seq model to achieve automatic proofreading of Chinese text. By comparing different models with public data sets and using accuracy, recall rate and F1 value as evaluation indexes, the experimental results show that Transformer model has greatly improved proofreading performance compared with other models.
Key words : Chinese text proofreading;Transformer model;deep learning

0 引言

    在如今信息量與日俱增的大數(shù)據(jù)時代,每天都會產(chǎn)生大量的文本信息,隨之而來的文本校對任務(wù)也越來越繁重,傳統(tǒng)的人工校對不僅校對周期長、勞動強度大,而且效率低,研究快速高效的自動校對方法是十分必要的。

    基于概率統(tǒng)計的中文文本校對方法通過構(gòu)建混淆集,分析目標(biāo)詞語與其上下文詞語的同現(xiàn)特征及搭配特征,判斷哪些錯誤需要校對,并在混淆集中選取概率值最高的詞語替換目標(biāo)詞語,從而進行文本校對[1]。然而,對于長距離的文本錯誤及語義錯誤,此類方法往往效果不佳。近年來,隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,將深度學(xué)習(xí)技術(shù)應(yīng)用于中文文本自動校對任務(wù)成為了一種新的發(fā)展方向。

    深度學(xué)習(xí)技術(shù)中的Transformer模型在Google于2017年6月發(fā)布在arXiv上的一篇文章《Attention is all you need》中提出[2],使用完全基于Self-Attention即“自注意力機制”的網(wǎng)絡(luò)結(jié)構(gòu),拋棄了傳統(tǒng)Encoder-Decoder即“編碼器-解碼器”模型必須使用RNN或CNN的固有模式[3]。本文首次將其應(yīng)用于中文文本自動校對任務(wù),實驗結(jié)果表明該模型可以較好地解決中文文本自動校對中的遠(yuǎn)距離信息丟失問題,進一步提升校對性能。

1 背景

1.1 中文文本自動校對的國內(nèi)外研究現(xiàn)狀

    國外最早于20世紀(jì)60年代開始展開英文文本自動校對研究,發(fā)展至今,已取得突破性進展,擁有高準(zhǔn)確率和高召回率的校對方法也已經(jīng)應(yīng)用到實際產(chǎn)品當(dāng)中[4]。而國內(nèi)關(guān)于中文文本自動校對的研究起步較晚,于20世紀(jì)90年代開始在國外對英文文本自動校對研究的基礎(chǔ)上,進行中文文本自動校對技術(shù)研究[5]。

    目前,國內(nèi)對于中文文本自動校對技術(shù)的研究方法主要有以下3種:(1)基于規(guī)則或語言學(xué)知識的方法[6];(2)基于統(tǒng)計、概率的方法,如N-gram模型[7];(3)基于特征和Winnow學(xué)習(xí)模型,通過構(gòu)造混淆集進行校對[8]。以上3種方法均為傳統(tǒng)的中文文本校對方法[9],本文則是通過深度學(xué)習(xí)技術(shù)進行中文文本自動校對,而傳統(tǒng)的深度學(xué)習(xí)技術(shù)通常采用RNN或CNN進行中文文本自動校對[10]。

1.2 RNN與CNN在中文文本自動校對的局限性

    使用RNN進行中文文本自動校對任務(wù)時,通常采用雙向RNN結(jié)構(gòu)[11]。即通過一個RNN進行從左往右的壓縮表示,另一個RNN進行從右往左的壓縮表示,將兩種壓縮表示結(jié)合起來,作為最終序列的分布式表示。因為對序列中的元素按順序處理,所以兩個詞之間的交互距離即相對距離。因此,RNN在長距離序列中存在信息丟失問題,即使是加入了門控機制的LSTM[12]和GRU,依然無法解決該問題。

    使用CNN進行中文文本自動校對任務(wù)時,一般使用多層結(jié)構(gòu)來實現(xiàn)序列從局部表示到全局表示[13]。一個詞首先會在底層CNN單元上與其距離較近的詞產(chǎn)生交互,然后在稍高層次的CNN單元上與更遠(yuǎn)一些的詞產(chǎn)生交互。詞之間的交互距離,與它們的相對距離成正比,因此使用CNN進行中文文本自動校對任務(wù)同樣會導(dǎo)致遠(yuǎn)距離信息丟失問題。

2 Transformer模型

    Transformer模型是一種對序列信息建模的新方法,該模型依然沿用了經(jīng)典的Encoder-Decoder結(jié)構(gòu),不同的是Transformer模型不再使用RNN或CNN,而是使用Self-Attention機制。該機制的優(yōu)勢就是可以獲取文本語義信息而不受詞語之間的相對距離影響,從而解決遠(yuǎn)距離信息丟失問題,提高校對性能。

2.1 Self-Attention

    Self-Attention機制作為Transformer模型最核心的特點,其可以建立當(dāng)前位置詞語與其上下文相關(guān)詞語之間的聯(lián)系。實現(xiàn)方式為:首先,將輸入向量分別與3個隨機初始化的權(quán)值矩陣WQ、WK和WV相乘,計算得出3個新的向量,分別為查詢向量q、鍵向量k和值向量v。其中q向量表示為了編碼當(dāng)前詞語,需要去注意文本中的其他詞;k向量是當(dāng)前詞的可以被用于檢索的信息;v向量則表示當(dāng)前詞語的實際內(nèi)容。接下來計算Self-Attention的分?jǐn)?shù)值,其決定了在對輸入句子中的某個詞語進行編碼時,對句子中其他部分的關(guān)注程度。

    如圖1所示,針對“生度”這個詞,通過查詢向量與鍵向量點乘,計算出其他詞對于該詞的一個分?jǐn)?shù)值。首先針對于本身即q1×k1,然后針對于第二個詞即q1×k2;為了減少乘積值過大對之后歸一化的影響,將點乘得到的結(jié)果分別除以向量維度的開方;之后再做歸一化處理,得到的結(jié)果即每個詞與當(dāng)前位置詞語的相關(guān)性大?。蛔詈髮⒅迪蛄縱與歸一化后的結(jié)果相乘再相加,得到的結(jié)果即Self-Attetion在當(dāng)前節(jié)點的值。計算方式如圖1所示。

rgzn1-t1.gif

    為了提高計算速度,本文采用矩陣的方式進行計算,計算方法如式(1)所示。

    rgzn1-gs1.gif

其中,Q、K、V分別表示對應(yīng)的3個向量矩陣,即查詢矩陣、鍵矩陣和值矩陣;dkey表示向量維度,本文取64維。

2.2 Multi-Headed Attention

    為了提升模型性能,加入了 Multi-Headed Attention機制[14],即“多頭注意力”機制,通過初始化多組權(quán)值矩陣進行計算,本文選取8組。將計算得到8個矩陣拼接為一個矩陣,再將一個隨機初始化的矩陣與拼接好的矩陣相乘,得到最終矩陣。該機制的結(jié)構(gòu)如圖2所示。

rgzn1-t2.gif

    “多頭注意力”機制有多個“注意力頭”,因此可以并行計算,提高模型訓(xùn)練速度。并且每個“注意力頭”都有對應(yīng)的權(quán)值矩陣,實現(xiàn)不同的線性變換,因此擴展了模型關(guān)注序列不同位置的信息的能力,可以對文本的語義信息有更完整的理解,從而進一步提高校對性能。

3 Transformer模型的實現(xiàn)

3.1 數(shù)據(jù)預(yù)處理

    在Transformer模型構(gòu)造之前,需要對輸入的數(shù)據(jù)進行預(yù)處理[15],包括:數(shù)據(jù)加載、數(shù)據(jù)清洗、分詞、語料轉(zhuǎn)換、分析統(tǒng)計。其中,數(shù)據(jù)加載是將數(shù)據(jù)集中的數(shù)據(jù)導(dǎo)入模型;數(shù)據(jù)清洗是去除語料中的特殊字符;分詞使用中文分詞工具“jieba分詞”,對語料進行分詞[16];語料轉(zhuǎn)換是將中文詞語轉(zhuǎn)換成對應(yīng)的數(shù)字編碼,以及對應(yīng)的數(shù)字編碼轉(zhuǎn)換為中文詞語;分析統(tǒng)計是對語料進行分析,了解語料特征。

3.2 Transformer模型結(jié)構(gòu)

    本文中的Transformer模型由6個編碼器層和6個解碼器層堆疊組成。待校對文本在編碼器端輸入,正確文本在解碼器端輸入,通過監(jiān)督學(xué)習(xí)來訓(xùn)練模型。即訓(xùn)練階段將訓(xùn)練集中的輸入語料作為編碼器輸入,將對應(yīng)的正確語料作為解碼器的輸入;在測試階段將測試集的待校對語料作為編碼器的輸入,解碼器端無輸入,僅依賴前一時刻的解碼器輸出信息進行校對。其整體結(jié)構(gòu)如圖3所示。

rgzn1-t3.gif

    編碼器層內(nèi)部包含兩個子層,即一個Self-Attention層和一個全連接的前饋神經(jīng)網(wǎng)絡(luò)層。Self-Attention層中的查詢向量、鍵向量和值向量均來自于前一個編碼器層,因此編碼器層的每個位置都能去關(guān)注前一層輸出的所有信息,使得當(dāng)前節(jié)點不僅關(guān)注當(dāng)前信息,還能獲得上下文的語義信息。前饋神經(jīng)網(wǎng)絡(luò)層應(yīng)用于Self-Attention層的輸出,由兩個線性變換和一個ReLU激活函數(shù)組成。計算方法如式(2)所示。

    rgzn1-gs2.gif

其中,W1和W2為模型中神經(jīng)元的權(quán)值,b1和b2為偏置值,x為輸入向量。

    編碼器層與解碼器層的結(jié)構(gòu)如圖4所示。

rgzn1-t4.gif

    解碼器層不僅包含編碼器層中的兩個子層,還添加了一個注意力子層對編碼器的輸出執(zhí)行多頭注意,其查詢向量來自于前一個解碼器層,鍵向量和值向量來自于編碼器的輸出,因此解碼器的每個位置都可以關(guān)注到編碼器輸入序列的全部信息,幫助當(dāng)前解碼器節(jié)點獲取到需要關(guān)注的重點內(nèi)容。此外,解碼器的Self-Attention子層加入了masked部分,其可以對某些值進行掩蓋,從而防止模型注意到后續(xù)位置信息。這種屏蔽確保了當(dāng)前的預(yù)測只能依賴于之前的已知輸出。

3.3 Transformer模型實現(xiàn)過程

    Transformer模型的內(nèi)部結(jié)構(gòu)如圖5所示。

rgzn1-t5.gif

3.3.1 Embedding

    首先,模型對輸入數(shù)據(jù)進行Embedding,即詞嵌入,將輸入詞語轉(zhuǎn)變成向量[17]。將向量輸入到編碼器和解碼器的第一層,經(jīng)過多頭注意力機制處理后傳入前饋神經(jīng)網(wǎng)絡(luò),得到的輸出信息作為下一層編碼器和解碼器的輸入[18]

3.3.2 Positional Encoding

    因為Transformer模型缺少對輸入序列中詞語順序的表示,所以需要在編碼器層和解碼器層的輸入添加一個Positional Encoding向量,即位置編碼向量,維度與輸入向量的維度相同,本文取512維。該向量決定當(dāng)前詞在序列中的位置,計算方法如式(3)、式(4)所示:

     rgzn1-gs3-4.gif

其中,pos是指當(dāng)前詞語在句子中的位置;i表示pos對應(yīng)的向量值,取值范圍為0~255;dmodel表示向量維度。在偶數(shù)位置,使用正弦編碼;在奇數(shù)位置,使用余弦編碼。最后將位置編碼向量與輸入向量相加,作為輸入傳入模型。

3.3.3 殘差連接和歸一化

    編碼器層和解碼器層中每個子層都加入了殘差連接和歸一化[19]。子層先進行殘差連接,避免誤差反向傳播時的梯度消失,接著對輸出進行歸一化,避免梯度消失或梯度爆炸。剩余連接和歸一化后的輸出表示如式(5)所示:

    rgzn1-gs5.gif

其中,x為前一層前饋神經(jīng)網(wǎng)絡(luò)或多頭注意力層的輸出向量,SubLayer為注意力機制函數(shù),LayerNorm為歸一化函數(shù)。

3.3.4 輸出層

    當(dāng)解碼器層全部執(zhí)行完畢后,為了將得到的向量映射為本文需要的詞語,需要在最后一個解碼器層后添加一個全連接層和Softmax層。全連接層輸出logits向量,作為Softmax層的輸入。假設(shè)詞典包括n個詞語,那最終Softmax層會輸出n個詞語分別對應(yīng)的概率值,概率值最大的對應(yīng)詞語就是最終的輸出結(jié)果。

4 結(jié)果與分析

    針對上述模型,本文設(shè)計了以下的實驗。本實驗運行環(huán)境操作系統(tǒng)為Windows 10,CPU為Intel CoreTM i5-8265,GPU為GTX 1070Ti,運行內(nèi)存8 GB。一共進行4組實驗,分別為傳統(tǒng)的Seq2Seq、加入BiLSTM的Seq2Seq、基于注意力機制的BiLSTM Seq2Seq與Transformer共4種模型。實驗使用的數(shù)據(jù)集來自于2018 NLPCC共享的訓(xùn)練數(shù)據(jù)集Task 2,其中提供了717 206條中文文本語句對,將其中的700 000條作訓(xùn)練集,17 206條作測試集,劃分過程隨機。Src代表待校對語料,Trg表示原句所對應(yīng)的正確語料。數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表1所示,分為訓(xùn)練集和測試集,統(tǒng)計了正確語料和錯誤語料,以及分詞后的詞語總數(shù)。

rgzn1-b1.gif

    為了對不同模型的校對效果進行評價,本次實驗采用準(zhǔn)確率、召回率和F1值作為指標(biāo),對實驗結(jié)果進行評估,實驗結(jié)果如表2所示。

rgzn1-b2.gif

    實驗結(jié)果表明,BiLSTM和注意力機制均可以在傳統(tǒng)Seq2Seq模型的基礎(chǔ)上提升中文文本校對效果,然而,Transformer模型的表現(xiàn)更好。并且,深度學(xué)習(xí)模型的校對效果受到訓(xùn)練次數(shù)和訓(xùn)練數(shù)據(jù)集大小的影響,如果增加Transformer模型的訓(xùn)練次數(shù)和增大訓(xùn)練數(shù)據(jù)集,模型將擁有更好的校對效果。

5 結(jié)論

    本文將Transformer模型應(yīng)用于中文文本自動校對領(lǐng)域,通過公開數(shù)據(jù)集對該模型的校對性能進行驗證,得出該模型的校對效果相比較于其他的模型在準(zhǔn)確率和召回率方面均有很大提升。

    本次實驗由于數(shù)據(jù)集的局限性[20],導(dǎo)致并未展現(xiàn)出Transformer模型的全部能力,但是該模型在中文文本自動校對中的表現(xiàn)依然優(yōu)異,也為Transformer模型應(yīng)用于其他自然語言處理任務(wù)提供了可能性。

參考文獻(xiàn)

[1] 張仰森,俞士汶.文本自動校對技術(shù)研究綜述[J].計算機應(yīng)用研究,2006(6):8-12.

[2] VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you need[J].Comouting Research Respository,2017,arXiv:1706:87-90.

[3] ZHANG C,WANG X,YU S,et al.Research on keyword extraction of Word2vec model in Chinese corpus[C].IEEE/ACIS 17th International Conference on Computer and Information Science(ICIS).IEEE,2018:339-343.

[4] 張濤.中文文本自動校對系統(tǒng)設(shè)計與實現(xiàn)[D].成都:西南交通大學(xué),2017.

[5] 劉亮亮,王石,王東升,等.領(lǐng)域問答系統(tǒng)中的文本錯誤自動發(fā)現(xiàn)方法[J].中文信息學(xué)報,2013,27(3):77-83.

[6] 劉亮亮,曹存根.中文“非多字詞錯誤”自動校對方法研究[J].計算機科學(xué),2016,43(10):200-205.

[7] 張仰森,曹大元,俞士汶.基于規(guī)則與統(tǒng)計相結(jié)合的中文文本自動查錯模型與算法[J].中文信息學(xué)報,2005,20(4):1-8.

[8] 張仰森,唐安杰,張澤偉.面向政治新聞領(lǐng)域的中文文本校對方法研究[J].中文信息學(xué)報,2014,28(6):79-84.

[9] 張仰森,鄭佳.中文文本語義錯誤偵測方法研究[J].計算機學(xué)報,2017,40(4):911-924.

[10] Wu Yonghui,SCHUSTER M,Chen Zhifeng,et al.Google′s neural machine translation system bridging the gap between human and machine translation[J].Computing Research Repository,2016,arXiv:1609:56-59.

[11] Chung Junyoung,GULCEHRE C,CHO K,et al.Empirical evaluation of gated recurrent neural networks on sequence modeling[J].CoRR,2014,abs/1412:78-81.

[12] Cheng Jianpeng,LAPATA M.Long short-term memory-networks for machine reading[J].arXiv Preprint 2016,arXiv:1601:127-130.

[13] GEHRING J,AULI M,GRANGIER D,et al.Convolutional sequence to sequence learning[J].arXiv Preprint 2017,arXiv:1705:68-71.

[14] LUONG M T,LE Q V,SUTSKEVER I,et al.Multi-task sequence to sequence learning[J].arXiv Preprint 2015,arXiv:1511:114-117.

[15] 王潔,喬藝璇,彭巖,等.基于深度學(xué)習(xí)的美國媒體“一帶一路”輿情的情感分析[J].電子技術(shù)應(yīng)用,2018,44(11):102-106.

[16] 孫鐵利,劉延吉.中文分詞技術(shù)的研究現(xiàn)狀與困難[J].2012(1):187-192.

[17] Lin Zhouhan,F(xiàn)eng Minwei,NOGUEIRA C,et al. A struc-tured self-attentive sentence embedding[J].arXiv Preprint 2017,arXiv:1703:116-119.

[18] PRESS O,WOLF L.Using the output embedding to improve language models[J].arXiv Preprint 2016,arXiv:1608:67-70.

[19] BA J L,KIROS J R,HINTON G E.Layer normalization[J].arXiv Preprint 2016,arXiv:1607:45-49.

[20] 字云飛,李業(yè)麗,孫華艷.基于深度神經(jīng)網(wǎng)絡(luò)的個性化推薦系統(tǒng)研究[J].電子技術(shù)應(yīng)用,2019,45(1):14-18.



作者信息:

龔永罡,裴晨晨,廉小親,王嘉欣

(北京工商大學(xué) 計算機與信息工程學(xué)院食品安全大數(shù)據(jù)技術(shù)北京市重點實驗室,北京100048)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。