總部位于英國的AI芯片公司Graphcore發(fā)布了新一代IPU產(chǎn)品Bow,這是其第三代IPU系統(tǒng),發(fā)布即面向客戶發(fā)貨。
與上一代IPU相比,Bow IPU性能提升40% ,能耗比提升了16%,電源效率也提升16%。
值得注意的是,這一次Bow IPU的性能提升并非主要依賴采用更先進(jìn)的制程,Bow IPU采用了和上一代IPU相同的臺(tái)積電 7nm,通過采用和臺(tái)積電共同開發(fā)的先進(jìn)硅晶圓堆疊技術(shù)(3D Wafer-on-Wafer)達(dá)到性能和能耗比的提升。
Bow作為世界首款3D WoW處理器,證明了芯片性能提升的范式從先進(jìn)制程向先進(jìn)封裝轉(zhuǎn)移的可行性。
新一代 IPU 性能提升40%,價(jià)格保持不變
2016年,Graphcore成立并開創(chuàng)了全新類型處理器架構(gòu)IPU,因其在架構(gòu)上的創(chuàng)新曾被英國半導(dǎo)體之父Hermann Hauser稱之為是計(jì)算機(jī)歷史上的第三次革命。
經(jīng)歷6年時(shí)間的發(fā)展,Graphcore的IPU逐漸在在金融、醫(yī)療、電信、機(jī)器人、云和互聯(lián)網(wǎng)等領(lǐng)域取得成效。本周四,Graphcore又推出了第三代產(chǎn)品Bow IPU。
據(jù)Graphcore介紹,第三代IPU相對于上一代M2000,性能提高40%,每瓦性能提升16%,即能耗比實(shí)現(xiàn)16%的提升。
不過,AI芯片的真實(shí)性能還需要放在不同的應(yīng)用領(lǐng)域中討論。為此,Graphcore也給出了在不同垂直領(lǐng)域中Bow的性能表現(xiàn)。
在圖像方面,無論是典型的CNN網(wǎng)絡(luò),還是近期比較熱門的Vision Transformer網(wǎng)絡(luò),以及深層次的文本到圖片的網(wǎng)絡(luò),與上一代產(chǎn)品相比,Bow IPU都有30%到40%的性能提升,在EfficientNet-B4這一項(xiàng)中,接近理論上限值。
BERT訓(xùn)練模型是自然語言方面的經(jīng)典模型,基于BERT,OpenAI提出了GPT-1、GPT-2、GPT-3等縱向擴(kuò)展或橫向擴(kuò)展,通過更深的網(wǎng)絡(luò)層次和更寬的網(wǎng)絡(luò)寬度讓模型的性能和精度進(jìn)一步提高。
“我們可以看到,這些模型在我們最新的硬件形態(tài)上都有很大的性能提升?!盙raphcore中國工程副總裁、AI算法科學(xué)家金琛介紹道。
不僅如此,轉(zhuǎn)換到實(shí)際模型中的吞吐量,與IPU POD64相比,在計(jì)算機(jī)視覺的ResNet50 和 EifficientNet-B4 訓(xùn)練模型中,Bow Pod64的吞吐量能夠達(dá)到34%和39%的性能提升。
自然語言方面, BERT-Large Ph1 預(yù)訓(xùn)練模型和語音識(shí)別Conformer Large 訓(xùn)練模型,后者都有36%的吞吐量提升。
作為英偉達(dá)的競爭對手,Graphcore自然不忘將 Bow Pod16 與DGX-A100進(jìn)行對比,實(shí)驗(yàn)數(shù)據(jù)表明,EfficientNet-B4的backbone的訓(xùn)練在DGX-A100上需要花費(fèi)70個(gè)小時(shí)的訓(xùn)練時(shí)間,而在Bow Pod16上,只需要14小時(shí)左右。
接近理論極限的性能提升,Graphcore Bow IPU是如何實(shí)現(xiàn)的?
5nm不再是首選,采用先進(jìn)封裝性價(jià)比更高
從芯片的規(guī)格上看,Bow IPU是世界上第一款基于臺(tái)積電的 3D Wafer-On-Wafer的處理器,單個(gè)封裝中擁有超過600億個(gè)晶體管,具有350 TeraFLOPS的人工智能計(jì)算的性能,是上一代MK2 IPU的1.4倍。
片內(nèi)存儲(chǔ)較上一代來看沒有變化,依然保持0.9GB的容量,不過吞吐量從47.5TB提高到了65TB。
“變化主要體現(xiàn)在,它是一個(gè)3D封裝的處理器,晶體管的規(guī)模有所增加,算力和吞吐量均得到提升。” Graphcore大中華區(qū)總裁兼全球首席營收官盧濤說道。而在大家都關(guān)注的工藝制程上,Bow IPU 延續(xù)了上一代臺(tái)積電 7nm 工藝制程,沒有變化。
理論上,一顆芯片的性能提升很大程度上取決于工藝制程上的進(jìn)步,但隨著工藝制程越來越逼近物理極限,摩爾定律逐漸失效,業(yè)界不得不尋找新的技術(shù)方向來延續(xù)摩爾定律。其中,3D封裝就是被業(yè)界廣泛看好的技術(shù)方向。
中國工程院院士、浙江大學(xué)微納電子學(xué)院院長吳漢明就曾在一次演講中提到,如果將芯片制造和芯片封裝相結(jié)合,也可以做到65nm工藝制程實(shí)現(xiàn)40nm工藝制程的性能功耗要求。
Bow IPU正好驗(yàn)證了吳院士的觀點(diǎn)。
盧濤表示,Bow IPU產(chǎn)品性能的提升主要來源于3D WoW和新增的Die。
至于為何選擇改變封裝方式而不是更先進(jìn)的工藝,盧濤則表示MK2 IPU有594億個(gè)晶體管,大概823平方毫米,已經(jīng)是7nm單個(gè)Die能夠生產(chǎn)的最精密的芯片。
“我們評估從7nm、5nm,到3nm等不同工藝節(jié)點(diǎn)的收益時(shí)發(fā)現(xiàn),從7nm到5nm的生產(chǎn)工藝提升所帶來的收益不像以前從28nm到14nm一樣,能夠帶來百分之幾十的收益,而是降到了20%。這時(shí)候我們可以通過別的手段和方法獲得同樣的收益。”
通過3D堆疊的方式,Bow IPU的兩個(gè)Die增加了晶體管的數(shù)量,其中一個(gè)Die(Colossus Die)和上一代一樣,另一個(gè)Die主要用于提高跨Colossus Die的電源功率傳輸,優(yōu)化Colossus Die的操作節(jié)點(diǎn),從而轉(zhuǎn)化為有效的時(shí)鐘加速。
在同臺(tái)積電的合作方面,盧濤告訴雷峰網(wǎng),Graphcore在一年之前就同臺(tái)積電合作了一顆測試芯片,與臺(tái)積電的關(guān)系非常緊密,加上AI處理器本身規(guī)模較大,需要一些新技術(shù)支持落地,而從臺(tái)積電的角度而言,新的技術(shù)也需要有需求的產(chǎn)品共同推進(jìn)。
值得一提的是,雖然封裝方式有所變化,但Bow IPU開箱即用,與前一代產(chǎn)品百分之百軟件兼容,不用修改任何代碼,老用戶無需做任何軟件適配工作就能獲得性能提升,價(jià)格保持不變。
目前,美國國家實(shí)驗(yàn)室Pacific Northwest已經(jīng)基于Bow IPU嘗試做一些基于Transformer的模型以及圖神經(jīng)網(wǎng)絡(luò),面向計(jì)算化學(xué)和網(wǎng)絡(luò)安全方面的應(yīng)用,且給出了比較正面的反饋。
延續(xù)3D封裝,開發(fā)超越人腦的超級智能機(jī)器
Bow IPU使用3D封裝只是起點(diǎn),面向未來,Graphcore正在開發(fā)一款可以用來超越人腦處理的超級智能機(jī)器。
Graphcore將這款正在研發(fā)的產(chǎn)品命名為Good Computer,一方面希望計(jì)算機(jī)能夠?yàn)檫@個(gè)世界帶來正面的影響,另一方面致敬著名計(jì)算機(jī)科學(xué)家Good。
基于3D WoW,預(yù)計(jì)未來Good Computer將包含8192個(gè)IPU,提供超過10 Exa-Flops的AI算力,實(shí)現(xiàn)4 PB的存儲(chǔ),可以助力超過500萬億參數(shù)規(guī)模的人工智能模型的開發(fā)。
取決于不同的配置,Good Computer價(jià)格將在100萬美元到1.5億美元之間。
盧濤表示,開發(fā)Good Computer還是會(huì)沿用IPU的體系結(jié)構(gòu),IPU的存儲(chǔ)是在處理器里面,雖然不叫類腦、內(nèi)存計(jì)算或存算一體,但從某種程度上而言,IPU的運(yùn)作機(jī)理接近大腦計(jì)算的工作原理,只是把計(jì)算和存儲(chǔ)相結(jié)合。
另外,Graphcore也將從軟件方面更有效支持稀疏化以達(dá)到類腦的計(jì)算量。