很多朋友應該都知道了,昨天(1月28日)英偉達下調(diào)了第四財季的業(yè)績預期,隨后股價暴跌高達18%。
請注意這里的細節(jié),是英偉達自己下調(diào)了預期,發(fā)生的時機是在發(fā)布本季財報(2月4日)之前。說白了,就是自己提前承認這個季度搞砸了,并跪求各位投資人放過。
另外一個需要注意的細節(jié)是,這已經(jīng)不是英偉達第一次下調(diào)本季度的業(yè)績預期了。在去年發(fā)布第三季度財報時,英偉達就已經(jīng)將第四財季的營收期望下調(diào)了7%左右,低于市場預期近兩成。最近六個月以來,英偉達股價已經(jīng)由最高的290美元左右,下跌到目前的130美元,除了股價腰斬,更成為同期標普500指數(shù)中表現(xiàn)最差的公司。
英偉達在這封致股東信中提到,導致收入指引下調(diào)的主要原因是全球及部分地區(qū)的經(jīng)濟減速,導致游戲GPU銷量和數(shù)據(jù)中心業(yè)務的大量下滑。
相比之下,老石在之前的文章中介紹過,F(xiàn)PGA公司Xilinx在前幾天發(fā)布季度財報后,股價飆升接近20%。這很大程度上歸功于Xilinx通信與數(shù)據(jù)中心部門的高速增長。此外,英特爾在其最新財報中披露,旗下FPGA部門在數(shù)據(jù)中心領(lǐng)域的增長幅度約有驚人的50%。
分析師們并不會告訴你,為什么這些公司目前有如此迥異的表現(xiàn)。在本文中,老石就從技術(shù)角度深入分析,當年的小甜甜怎么變成了今天的牛夫人。
數(shù)據(jù)中心AI加速芯片的選擇
推動人工智能爆發(fā)的最主要原因之一,就是硬件算力的提升。而英偉達的股價當年之所以能夠三年漲10倍,就是因為GPU非常適用于深度神經(jīng)網(wǎng)絡(luò)的訓練。與傳統(tǒng)的CPU相比, GPU擁有數(shù)千個計算內(nèi)核,能夠在性能上取得上百倍的提升。因此AI就成為了GPU最主要的應用領(lǐng)域之一,也成就了英偉達的高速增長。
隨著AI的不斷發(fā)展,諸如微軟和谷歌這樣的巨頭公司開始考慮在數(shù)據(jù)中心里采用GPU作為AI加速芯片,這時問題就出現(xiàn)了。在大量部署時,芯片的性能并不是唯一需要考慮的因素。事實上,很多情況下它也并不是最重要的因素。
對于某種AI加速芯片,老石將常見的評價因素總結(jié)為五點:性能、靈活性、同構(gòu)性、成本和功耗。其中:
靈活性:指這種芯片對不同應用場景的適應程度。
同構(gòu)性:指的是AI加速芯片能否重復利用數(shù)據(jù)中心現(xiàn)有的架構(gòu)和資源。
成本:既包括對該硬件加速器的研發(fā)投入,也包含了它的采購、部署和運維開支。
功耗:就是指引入該方案后,對數(shù)據(jù)中心帶來的額外功耗負擔。
接下來,老石就對幾種常見的AI加速芯片,比如GPU、FPGA以及ASIC,采用上述評價因素做一個簡單的定性對比。
GPU
GPU最大的問題是,它基本上是個“功耗黑洞”:中等性能的GPU功耗都普遍超過200W,而高性能GPU的功耗會超過300W。相比于FPGA或ASIC的幾十瓦甚至幾瓦的功耗而言,這個數(shù)字顯得過于驚人。
高功耗對于GPU在數(shù)據(jù)中心里的大規(guī)模部署是致命的,因為這不僅代表著高昂的電費開支,還表示數(shù)據(jù)中心現(xiàn)有的供電、散熱等硬件架構(gòu)需要進行重新修改,這對于同構(gòu)性和低成本這兩項要求而言基本上是不可能的任務。
在靈活性方面,GPU通常只適用于計算密集型運算,對于通信密集型的應用,GPU需要與CPU和網(wǎng)卡組成一個完整的通信系統(tǒng),因此對于這類應用,GPU的靈活性會受到較大限制。
ASIC
專用的AI加速芯片以谷歌的張量處理器TPU(Tensor Processing Unit)最為典型。TPU專為谷歌的深度學習框架TensorFlow設(shè)計,現(xiàn)在已有第二代,被用來加速神經(jīng)網(wǎng)絡(luò)的和決策。ASIC最主要的優(yōu)勢是它的超高性能和超低功耗。與GPU相比,TPU在某些AI應用的性能可以提高一個量級,而功耗會下降一到兩個量級。
不過,得到這樣高性能和低功耗需要付出的代價就是巨大的研發(fā)成本。放眼全球,有資金實力和技術(shù)儲備進行這類研發(fā)的公司,大概用一個手就能數(shù)的出來。ASIC的另外一個缺點是它的低靈活性,它通常針對某種特定的應用和算法框架而設(shè)計,因此很難直接用于其他的應用。
FPGA
相比GPU和ASIC,F(xiàn)PGA在各項評價指標中能夠達到比較理想的平衡。在絕對性能方面,雖然不如GPU或ASIC,但由于FPGA可以定制化硬件流水線,并且可以進行大規(guī)模并行運算,因此相比傳統(tǒng)的基于CPU的計算性能還是有著至少一到兩個量級的提升。由于FPGA具有硬件可編程的特點,使得它可以應對包括計算密集型和通信密集型在內(nèi)的各類應用。此外,F(xiàn)PGA獨有的動態(tài)可編程、部分可編程的特點,使其可以跨空間和時間兩個維度,同時處理多個應用,或在不同時刻處理不同應用,因此有很強的靈活性。
功耗和成本方面,F(xiàn)PGA的功耗通常為幾十瓦,采購與運維成本遠低于GPU。FPGA的開發(fā)成本主要涉及購買特定的FPGA設(shè)計和調(diào)試工具、采購FPGA芯片或加速卡,以及組建團隊進行或外包FPGA開發(fā)項目等投入。雖不及CPU或GPU等基于軟件的開發(fā)方式,但由于省去了FPGA芯片制造的相關(guān)環(huán)節(jié),因此相比研發(fā)一款專用芯片而言還是低很多。
此外,F(xiàn)PGA目前通常以加速卡的形式配合現(xiàn)有的通用處理器進行大規(guī)模部署,對額外的供電和冷卻等環(huán)節(jié)沒有特殊要求,因此可以兼容數(shù)據(jù)中心的現(xiàn)有硬件體系結(jié)構(gòu)。
AI芯片的最大風險
對于AI芯片的設(shè)計者而言,當前最大的風險就是AI本身。在這個群雄爭霸的時代,各種新算法、新模型層出不窮,因此在某種方法一統(tǒng)天下之前,很難將其中的任何一種方法固化在芯片上,否則就很可能再次重演以前的小甜甜變成今天的牛夫人這樣的悲劇。
比如,為了進一步提升性能功耗比,目前比較流行的方法是使用近似(approximation)算法,例如將雙精度浮點數(shù)換成低精度的定點數(shù),或者對不同權(quán)重的網(wǎng)絡(luò)分支做剪枝、結(jié)構(gòu)優(yōu)化和壓縮的操作。這方面的具體內(nèi)容在本文中不再展開,有興趣的讀者可以參考老石在英國的博士師弟小王同學最新發(fā)表的綜述,題目見下圖,點擊閱讀原文即可查看。
老石想說的是,這些不斷涌現(xiàn)的全新AI方法只有通過FPGA才能快速實現(xiàn),這對于GPU或者ASIC都是不可能完成的任務。
結(jié)語
正如老石在之前的文章里提到的,數(shù)據(jù)中心與AI已經(jīng)成為各家芯片公司的必爭之地。只不過,近期資本市場的表現(xiàn)在某種程度上展示了人們對不同方案的認可度。這也是老石在本文中嘗試分析的。
然而,老石并不想立flag斷言這些公司的未來,老石只是相信,技術(shù)會不斷給出自己的答案。