《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > Google發(fā)布TPU人工智能服務(wù)器芯片技術(shù)

Google發(fā)布TPU人工智能服務(wù)器芯片技術(shù)

2017-04-10
關(guān)鍵詞: Google TPU 人工智能 芯片

Google今天在一篇論文中公布了Tensor人工智能服務(wù)器處理芯片TPU的詳細(xì)資料。TPU是一種專門為本地高效率處理人工智能計算任務(wù)設(shè)計的服務(wù)器芯片,Google公司從2015年就開始使用這種芯片,雖然2016年Google曾經(jīng)曝光該芯片的存在,但是并未提供任何技術(shù)方面的細(xì)節(jié)信息。

在今天的全國工程師學(xué)術(shù)會議上,TPU論文的75位聯(lián)合作者之一,David Patterson就TPU的技術(shù)論文發(fā)表了演講。

Patterson指出,Google依賴TPU來完成人工智能神經(jīng)網(wǎng)絡(luò)第二階段的計算任務(wù)。首先,在第一階段Google用大量數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò),這個階段的計算任務(wù)主要依靠服務(wù)器GPU來加速,然后,Google使用TPU來更有效率地推斷新數(shù)據(jù),Google宣稱GPU在新數(shù)據(jù)推斷方面的性能表現(xiàn)大大優(yōu)于GPU或者x86處理器芯片。

“雖然一些應(yīng)用的處理器使用率并不高,但是TPU的處理速度依然能夠比當(dāng)下的GPU或CPU快上15-30倍”,Google在論文中寫道。Google所指的“當(dāng)下的GPUS和CPU”,分別是Nvidia的TeslaK80和英特爾Haswell 架構(gòu)Xeon E5-2699 v3這樣的“當(dāng)紅炸子雞”。

過去五年,AMD和Nvidia兩大顯卡廠商憑借人工智能熱潮重新回到IT產(chǎn)業(yè)聚光燈下,而顯卡GPU也成了深度學(xué)習(xí)的默認(rèn)低成本基礎(chǔ)設(shè)施技術(shù),這其中Google也起到不小的推動作用。但是Google、微軟等IT巨頭從未放棄其他人工智能芯片技術(shù)領(lǐng)域的探索,這其中包括用來處理多種AI工作任務(wù)的FPGA芯片技術(shù)。而TPU則是Google的原創(chuàng)技術(shù),已經(jīng)應(yīng)用于Google圖像搜索、GoogleCloud Vision API等生產(chǎn)環(huán)境。

TPU處理器芯片的內(nèi)存是K80這樣的GPU芯片的3.5倍,而體積卻更小,每瓦特功耗的處理性能則是GPU的30-80倍。

相比大多數(shù)IT互聯(lián)網(wǎng)企業(yè),Google是人工智能神經(jīng)網(wǎng)絡(luò)的先行者和踐行者,早在2013年Google就宣稱為了滿足不斷膨脹的人工智能計算需求,Google需要將當(dāng)時的數(shù)據(jù)中心服務(wù)器計算力提高一倍,而如果基于通用芯片實(shí)現(xiàn)這一點(diǎn),成本會高得難以承受,因此Google開始研發(fā)性能價格比10倍于GPU的人工智能專用芯片。

為了提高TPU的部署效率,Google的TPU沒有選擇于CPU集成,而是以協(xié)處理器的方式直接插入PCIe總線,可以像GPU一樣在現(xiàn)有的服務(wù)器上“即插即用”。從設(shè)計架構(gòu)的角度來看,TPU更接近FPU(浮點(diǎn)運(yùn)算協(xié)處理器)而不是GPU。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。