中文引用格式: 賈迪,嚴(yán)偉,姚賽杰,等. 基于深度學(xué)習(xí)的神經(jīng)歸一化最小和LDPC長(zhǎng)碼譯碼[J]. 電子技術(shù)應(yīng)用,2024,50(12):7-12.
英文引用格式: Jia Di,Yan Wei,Yao Saijie,et al. LDPC long code decoding with neural normalized min-sum based on deep learning[J]. Application of Electronic Technique,2024,50(12):7-12.
引言
低密度奇偶校驗(yàn)碼(Low Density Parity Check, LDPC)是一種性能逼近香農(nóng)極限[1]和具有高譯碼吞吐量[2]的前向糾錯(cuò)碼,被廣泛運(yùn)用于有線、無(wú)線、衛(wèi)星、以太網(wǎng)等通信系統(tǒng)中。編碼后的LDPC碼被附加上冗余信息,經(jīng)調(diào)制和噪聲信道后再進(jìn)行譯碼,力求盡可能地糾正其中的誤碼。傳統(tǒng)的LDPC譯碼算法包括和積譯碼(Sum Product, SP)、最小和譯碼(Min-sum, MS)、基于MS的改進(jìn)算法有歸一化最小和譯碼(Normalized Min-sum, NMS)與帶偏置項(xiàng)的最小和譯碼(Offset Min-sum, OMS)。隨著近年來(lái)人工智能的快速發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)越來(lái)越廣泛地應(yīng)用于各領(lǐng)域的研究,將深度學(xué)習(xí)方法應(yīng)用于信道譯碼的研究也成為了一大研究熱點(diǎn)。Nachmanid等已證明對(duì)Tanner圖的邊緣分配權(quán)重,可相比傳統(tǒng)置信傳播(Belief Propogation, BP)算法減少迭代次數(shù),提高譯碼性能[3]。Wang等人提出的DNN譯碼數(shù)學(xué)復(fù)雜度高,僅適用于短碼,在長(zhǎng)碼譯碼中展現(xiàn)性能不佳[4]。Lugosch 等提出可用于硬件實(shí)現(xiàn)的神經(jīng)偏置項(xiàng)最小和譯碼(Neural Offset Min-sum, NOMS)[5], 但該方法也難以應(yīng)用于長(zhǎng)碼譯碼。本文研究基于深度學(xué)習(xí)的LDPC長(zhǎng)碼譯碼方法。首先研究數(shù)據(jù)驅(qū)動(dòng)譯碼算法,即預(yù)先設(shè)置適當(dāng)結(jié)構(gòu)的MLP網(wǎng)絡(luò),然后直接采用大量信息與編碼數(shù)據(jù)進(jìn)行訓(xùn)練,從而構(gòu)建譯碼神經(jīng)網(wǎng)絡(luò)。由于沒(méi)有將傳統(tǒng)算法的迭代結(jié)構(gòu)融入其中,此方法的譯碼效果不理想。而后提出神經(jīng)歸一化最小和譯碼(Neural Normalized Min-sum, NNMS),它將傳統(tǒng)的NMS算法的迭代結(jié)構(gòu)改造為神經(jīng)網(wǎng)絡(luò),再對(duì)神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行訓(xùn)練。NNMS將傳統(tǒng)NMS算法與神經(jīng)網(wǎng)絡(luò)相結(jié)合,相比于MS和NMS算法均得到了性能的提升。
本文詳細(xì)內(nèi)容請(qǐng)下載:
http://theprogrammingfactory.com/resource/share/2000006241
作者信息:
賈迪1,嚴(yán)偉1,姚賽杰2,張權(quán)2,劉亞歡2
(1.北京大學(xué) 軟件與微電子學(xué)院,北京 102600;
2.裕太微電子股份有限公司,上海 201210)