隨著深度學習領域[1-4]帶來的技術性突破,人工智能(artificial intelligence,AI)無論在科研還是在產(chǎn)業(yè)應用方面都取得了快速的發(fā)展。深度學習算法需要大量的矩陣乘加運算,對大規(guī)模并行計算能力有很高的要求,CPU和傳統(tǒng)計算架構無法滿足對于并行計算能力的需求[5],需要特殊定制的芯片。目前,AI芯片行業(yè)已經(jīng)起步并且發(fā)展迅速[6]。
1. AI芯片定義及技術架構
1.1 AI芯片定義
廣義上所有面向AI應用的芯片都可以稱為AI芯片。目前一般認為是針對AI算法做了特殊加速設計的芯片?,F(xiàn)階段,這些人工智能算法一般以深度學習算法為主,也可以包括其他淺層機器學習算法[7-8]。
1.2 AI芯片功能
(1)訓練。對大量的數(shù)據(jù)在平臺上進行學習,并形成具備特定功能的神經(jīng)網(wǎng)絡模型。對AI芯片有高算力、高容量和訪問速率、高傳輸速率、通用性的要求。
?。?)推理。利用已經(jīng)訓練好的模型通過計算對輸入的數(shù)據(jù)得到各種結論。對于 AI芯片主要注重算力功耗比、時延、價格成本的綜合能力。實驗證明低精度運算(如float16,int8)可達到幾乎和float32同等的推理效果,所以AI推理芯片有低精度算力的要求。
1.3 技術架構
表1列出了AI芯片的幾種技術架構,并對其優(yōu)缺點進行比較。
表1.AI芯片技術架構
2. AI芯片應用場景
2.1 數(shù)據(jù)中心(IDC)
用于云端訓練和推理,目前大多數(shù)的訓練工作都在云端完成[9]。移動互聯(lián)網(wǎng)的視頻內(nèi)容審核、個性化推薦等都是典型的云端推理應用。Nvidia GPU在訓練方面一家獨大,在推理方面也保持領軍位置。FPGA和ASIC因為低功耗、低成本的優(yōu)勢,在持續(xù)搶奪GPU的市場的份額。
云端主要的代表芯片有Nvidia-TESLA V100、華為昇騰910、Nvidia-TESLA T4、寒武紀MLU270等。
2.2 移動終端
主要用于移動端的推理,解決云端推理因網(wǎng)絡延遲帶來的用戶體驗等問題。典型應用如視頻特效、語音助手等。通過在手機系統(tǒng)芯片(system on chip,SoC)中加入增加協(xié)處理器或專用加速單元來實現(xiàn)。受制于手機電量,對芯片的功耗有嚴格的限制。代表芯片有Apple A12 Neural Engine(加速引擎)和華為麒麟990。
2.3 安防
目前最為明確的AI芯片應用場景,主要任務是視頻結構化。攝像頭終端加入AI芯片,可以實現(xiàn)實時響應、降低帶寬壓力。也可以將推理功能集成在邊緣的服務器級產(chǎn)品中。AI芯片要有視頻處理和解碼能力。主要考慮的是可處理的視頻路數(shù)以及單路視頻結構化的成本[10]。代表芯片有華為Hi3559-AV100和比特大陸B(tài)M1684等。
2.4 自動駕駛
AI芯片作為無人車的大腦,需要對汽車上大量傳感器產(chǎn)生的數(shù)據(jù)做實時處理[11],對芯片的算力、功耗、可靠性都有非常高的要求,同時芯片需要滿足車規(guī)標準,因此設計的難度較大[12]。面向自動駕駛的芯片目前主要有Nvidia Orin、Xavier和Tesla的FSD等。
2.5 智能家居
在AI+IoT時代,智能家居中的每個設備都需要具備一定的感知、推斷以及決策功能。為了得到更好的智能語音交互用戶體驗,語音AI芯片進入了端側市場。語音AI芯片相對來說設計難度低,開發(fā)周期短。代表芯片有思必馳TH1520和云知聲雨燕UniOne等。
3. AI芯片關鍵技術和基準測試平臺
3.1 關鍵技術和挑戰(zhàn)
?。?)AI芯片當前的核心是利用乘加計算(multiplier and accumulation,MAC)陣列來實現(xiàn)卷積神經(jīng)網(wǎng)絡中最主要的卷積運算的加速。MAC陣列的大量運算,會造成功耗的增加。很多AI應用的場景對于功耗都有嚴格的限制,如何達到優(yōu)異的性能功耗比是AI芯片研發(fā)的一個重要目標。
?。?)深度學習算法中參與計算的數(shù)據(jù)和模型參數(shù)很多,數(shù)據(jù)量龐大,導致內(nèi)存帶寬成為了整個系統(tǒng)的一個瓶頸“,Memory Wall”也是需要優(yōu)化和突破的主要問題[13]。
?。?)除了芯片本身硬件的設計以外,軟件對于AI芯片性能的發(fā)揮也有著十分重要的作用,編譯器和工具鏈軟件的優(yōu)化能力、易用性現(xiàn)在也得到越來越多的重視。
3.2 基準測試平臺
基準測試平臺(Benchmark)為AI芯片建立了標準的評估體系,主要職責和意義有:
?。?)基于調(diào)研和集群信息收集,真實反映AI芯片的使用情況。
?。?)引入評估和選型標準。
?。?)對AI芯片的架構定義和優(yōu)化指引方向?;鶞蕼y試平臺的評估指標包括延時(ms)、吞吐量(ims/s)、能效比(ims/s/W)、利用率(ims/s/T)等。主要的基準測試臺有MLPerf、DawnBench(Stanford)、DeepBench(百度)、AI Matrix(阿里巴巴)。
4. AI芯片未來趨勢和探索
4.1 神經(jīng)形態(tài)芯片
神經(jīng)形態(tài)芯片是指顛覆經(jīng)典的馮·諾依曼計算架構,采用電子技術模擬已經(jīng)被證明了的生物腦的運作規(guī)則,從而構建類似于生物腦的芯片[14]。
神經(jīng)形態(tài)芯片的優(yōu)點:
(1)計算和存儲融合,突破Memory Wall瓶頸。
(2)去中心化的眾核架構,強大的細粒度互聯(lián)能力。
?。?)更好的在線學習能力。清華大學、Intel、IBM等學校和企業(yè)都在做此方面的研究工作。
4.2 可重構計算芯片
可重構計算芯片也叫做軟件定義芯片[6],主要針對目前AI芯片存在的以下問題和任務需求:
?。?)高效性和靈活性難以平衡。
?。?)復雜的AI任務需要不同類型AI算法任務的組合。
?。?)不同任務需要的計算精度不同??芍貥嬘嬎阈酒脑O計思想在于軟硬件可編程,允許硬件架構和功能隨軟件變化而變化,從而可以兼顧靈活性和實現(xiàn)超高的能效比。
5. 云端和邊緣側AI芯片和應用
5.1 云端和邊緣側AI芯片
本研究團隊從2017年開始研發(fā)AI芯片,并在當年發(fā)售了第一代云端專用AI芯片 BM1680。在2019年發(fā)布了第三代AI芯片BM1684。BM1684采用TSMC-12 nm工藝,有17.6Tops的int8和2.2Tflops的float32算力,典型功耗為16W,可以支持32路1080P的高清視頻解碼?;贐M1684芯片,研發(fā)了深度學習加速板卡SC5(如圖1所示)、高密度計算服務器SA5、邊緣計算盒子SE5、邊緣計算模組SM5等面向各種不同人工智能應用的產(chǎn)品。
圖1.深度學習加速板卡SC5
5.2 研發(fā)產(chǎn)品的應用
本團隊的AI產(chǎn)品已經(jīng)在云端和邊緣側的多種應用場景下落地使用,包括智慧園區(qū)(如圖2所示)、城市大腦(如圖3所示)、視頻結構化、人臉布控、智能支付等。
圖2.智慧園區(qū)解決方案
圖3.城市大腦應用
6. 結論
AI芯片行業(yè)尚處于起步階段,已經(jīng)有越來越多的項目開始落地和商業(yè)化,它的快速發(fā)展有助于推動整個人工智能產(chǎn)業(yè)的進展。本文對AI芯片的現(xiàn)狀和未來可能的技術方向做了調(diào)研和分析,希望可以幫助讀者更好地了解AI芯片行業(yè),AI 芯片擁有巨大的產(chǎn)業(yè)價值和戰(zhàn)略地位,相信中國的科研機構和企業(yè)會努力抓住機遇,讓中國的人工智能產(chǎn)業(yè)蓬勃發(fā)展。