《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 電子元件 > 業(yè)界動(dòng)態(tài) > GPU市場(chǎng)的轉(zhuǎn)折

GPU市場(chǎng)的轉(zhuǎn)折

2022-08-15
作者: 李飛
來(lái)源: 半導(dǎo)體行業(yè)觀察
關(guān)鍵詞: GPU

  我們正在目睹GPU市場(chǎng)的重要轉(zhuǎn)折。八月初,GPU龍頭企業(yè)Nvidia發(fā)布二季度財(cái)報(bào)預(yù)警,其中提到公司的二季度收入比之前的預(yù)計(jì)大幅下降,其主要原因是由于游戲市場(chǎng)和加密貨幣市場(chǎng)在2022年的規(guī)模大大下降——相關(guān)的收入同比下降33%,環(huán)比下降44%。我們認(rèn)為,這標(biāo)志著GPU市場(chǎng)正在加速進(jìn)入轉(zhuǎn)折期,這也會(huì)加速GPU相應(yīng)公司尋找新的增長(zhǎng)點(diǎn)。

  微信圖片_20220815104331.png

  傳統(tǒng)上,GPU最關(guān)鍵的市場(chǎng)是游戲市場(chǎng),這包括了PC主機(jī)上的GPU,以及游戲主機(jī)中的GPU,然而從長(zhǎng)期大趨勢(shì)上來(lái)看,PC主機(jī)和游戲主機(jī)的市場(chǎng)增長(zhǎng)正在趨緩,甚至有下降的勢(shì)頭。從短期來(lái)看,2021年新冠疫情導(dǎo)致居家辦公等新的工作狀態(tài)導(dǎo)致了PC和游戲主機(jī)相關(guān)需求短暫上升,而目前這樣的非常態(tài)帶來(lái)的福利已經(jīng)結(jié)束,對(duì)于GPU需求也在大幅下降。此外,加密貨幣的繁榮也曾讓GPU一卡難求,但是隨著加密貨幣市場(chǎng)的崩潰,對(duì)于GPU市場(chǎng)也造成了一定的影響。根據(jù)Digitimes的報(bào)道,GPU在2022年的出貨量預(yù)計(jì)將比2021年下降40-50%(這個(gè)數(shù)字和Nvidia的第二季度預(yù)報(bào)也相符)??傊?,無(wú)論是從短期還是從長(zhǎng)期來(lái)看,傳統(tǒng)的游戲行業(yè)都已經(jīng)很難成為GPU市場(chǎng)的增長(zhǎng)點(diǎn)。

  未來(lái)GPU的市場(chǎng)在哪里?

  其實(shí)從Nvidia的財(cái)報(bào)中我們也可以看出,數(shù)據(jù)中心將會(huì)是GPU的新增長(zhǎng)點(diǎn)。數(shù)據(jù)中心中的GPU使用主要是用于高性能計(jì)算,包括人工智能相關(guān)的計(jì)算和視頻處理等。在Nvidia公布的第二季度預(yù)報(bào)中,數(shù)據(jù)中心相關(guān)的收入同比增長(zhǎng)高達(dá)61%,且收入已經(jīng)高于游戲市場(chǎng),可見(jiàn)數(shù)據(jù)中心增長(zhǎng)勢(shì)頭之強(qiáng)。

  數(shù)據(jù)中心中使用GPU預(yù)計(jì)未來(lái)還會(huì)在未來(lái)呈快速上升態(tài)勢(shì)。人工智能將會(huì)進(jìn)入越來(lái)越多的應(yīng)用中,而在數(shù)據(jù)中心側(cè)人工智能模型的訓(xùn)練和推理,目前最佳的解決方案就是GPU。我們目前看到人工智能模型的復(fù)雜度正在快速上升,訓(xùn)練所需要的數(shù)據(jù)量也在越來(lái)越大,這也意味著單個(gè)模型需要的計(jì)算量正在上升,同時(shí)結(jié)合模型部署和訓(xùn)練數(shù)量的上升,兩者的乘數(shù)效應(yīng)使得數(shù)據(jù)中心對(duì)于GPU的需求仍然會(huì)持續(xù)上升。

  除了高性能計(jì)算之外,另一個(gè)未來(lái)可能的新增長(zhǎng)點(diǎn)是元宇宙相關(guān)的圖像渲染任務(wù)。隨著MR/VR硬件和相關(guān)應(yīng)用的成熟,如何為用戶提供高性能的圖像渲染將會(huì)是相關(guān)用戶體驗(yàn)的核心要素。如果元宇宙的VR/MR真的如預(yù)期的一樣會(huì)成為一個(gè)巨大的市場(chǎng),那么相關(guān)的渲染任務(wù)也將會(huì)成為GPU的一個(gè)新增長(zhǎng)點(diǎn)。當(dāng)然其中也存在著很大的不確定性,首先元宇宙和VR/MR是否會(huì)如愿增長(zhǎng)還不清楚,此外相關(guān)的渲染會(huì)在云端完成并且通過(guò)網(wǎng)絡(luò)串流的方式來(lái)到用戶的本地顯示,還是使用本地的GPU直接做渲染,相關(guān)的技術(shù)方案還沒(méi)有定論。

  綜上所述,我們認(rèn)為GPU市場(chǎng)的轉(zhuǎn)折將會(huì)是傳統(tǒng)游戲相關(guān)收入逐漸飽和(甚至在短期內(nèi)大幅下降),而在人工智能和高性能計(jì)算(即GPGPU)相關(guān)的數(shù)據(jù)中心市場(chǎng)會(huì)成為目前和中期內(nèi)的首要增長(zhǎng)點(diǎn),遠(yuǎn)期來(lái)看元宇宙相關(guān)的渲染任務(wù)有可能會(huì)取代傳統(tǒng)游戲相關(guān)收入,但是還存在很大的不確定性。

  GPU技術(shù)演進(jìn)路線

  如前所述,數(shù)據(jù)中心中的人工智能和高性能計(jì)算正在成為GPU目前最關(guān)鍵的增長(zhǎng)點(diǎn),因此GPU廠商技術(shù)研發(fā)目前也主要圍繞這個(gè)目標(biāo)。這里我們將會(huì)分析GPU領(lǐng)域兩大龍頭Nvidia和AMD的相關(guān)技術(shù)路線圖,來(lái)分析一下GPU在未來(lái)幾年內(nèi)演進(jìn)的一些重要技術(shù)路線。

  首先是專用加速器與通用GPU的融合。在人工智能硬件剛興起的時(shí)候,使用專用加速器還是使用通用GPU做加速幾乎是兩大陣營(yíng)——專用加速器效率高但是只能支持幾種特定的算法和模型;通用GPU兼容性好,但是效率較差,功耗也較大。但是,隨著人工智能硬件的演進(jìn),目前我們看到通用GPU和專用加速器正在慢慢融合,或者說(shuō)在GPU上我們?cè)诳吹皆絹?lái)越多的針對(duì)一些特定人工智能模型的專用IP來(lái)實(shí)現(xiàn)加速。舉例來(lái)說(shuō),混合精度計(jì)算和低精度整數(shù)運(yùn)算加速已經(jīng)成為數(shù)據(jù)中心GPU的標(biāo)配。在這個(gè)領(lǐng)域,Nvidia更為激進(jìn),憑借其對(duì)于人工智能模型生態(tài)的大量布局和龍頭地位,Nvidia能夠把握人工智能模型發(fā)展的態(tài)勢(shì)(如新模型的流行程度)并且據(jù)此在GPU產(chǎn)品上加入相關(guān)支持。在Nvidia下一代的H100 GPU中就加入了對(duì)于Transformer系列模型的專用加速模塊,而這樣的專用加速模塊集成在通用GPU中恰恰說(shuō)明了通用GPU和專用加速器之間的融合將會(huì)是未來(lái)的重要技術(shù)演進(jìn)方向。

  除此之外,決定GPU計(jì)算性能的關(guān)鍵指標(biāo)是存儲(chǔ)訪問(wèn)帶寬和延遲。在這個(gè)方面,增加DRAM帶寬,使用HBM等最新的內(nèi)存接口已經(jīng)是GPU的標(biāo)準(zhǔn)配置,相信未來(lái)隨著DRAM接口標(biāo)準(zhǔn)的演進(jìn),GPU也會(huì)優(yōu)先使用最新的DRAM接口。而除了DRAM之外,高速緩存(cache)也是關(guān)鍵的存儲(chǔ),緩存容量會(huì)大大影響計(jì)算的延遲和功耗。Nvidia和AMD都在積極地?cái)U(kuò)大高速緩存的容量,而在這方面AMD使用新技術(shù)的步伐則領(lǐng)先Nvidia——目前Nvidia在H100增加緩存主要還是考慮2D的方式即在同芯片上加大緩存面積,而根據(jù)AMD今年六月份公布的最新CDNA3 GPU架構(gòu),CDNA3會(huì)使用高級(jí)封裝技術(shù),使用單獨(dú)的緩存芯片粒(chiplet),并且將緩存芯片粒和GPU使用堆疊的方式集成在一起(即Infinity Cache)。這樣一來(lái),高速緩存芯片粒的存儲(chǔ)容量就有可能大大增加,從而提升性能。

  在存儲(chǔ)之外,另一個(gè)數(shù)據(jù)中心端GPU技術(shù)演進(jìn)的重要方向是如何減少CPU和GPU通信帶來(lái)的性能損失。在傳統(tǒng)設(shè)計(jì)中,CPU和GPU處于兩個(gè)完全不同的系統(tǒng),其內(nèi)存空間并不共享,因此CPU和GPU之間的通信開(kāi)銷很大。為了解決這個(gè)問(wèn)題,Nvidia和AMD都在這方面做了不少投入。Nvidia的解決方案是使用自研的基于ARM架構(gòu)的Grace CPU,并且在架構(gòu)設(shè)計(jì)上給每個(gè)GPU單獨(dú)配一個(gè)CPU并且使用NVLINK高速接口連接在一起,從而減小CPU和GPU之間的協(xié)同工作開(kāi)銷。而AMD因?yàn)橐恢蓖瑫r(shí)有GPU和CPU業(yè)務(wù),因此相關(guān)的設(shè)計(jì)在技術(shù)上更為激進(jìn),在CDNA3架構(gòu)中CPU和GPU將會(huì)使用高級(jí)封裝的方式集成在一起,共享HBM3高速內(nèi)存接口和內(nèi)存空間,從而大大增加CPU和GPU之間的集成度和協(xié)作的能力。

  微信圖片_20220815104812.png

  綜上,我們認(rèn)為未來(lái)服務(wù)器端GPU將會(huì)是GPU市場(chǎng)最重要的市場(chǎng)增長(zhǎng)點(diǎn),而圍繞這個(gè)增長(zhǎng)點(diǎn)有幾個(gè)重要的技術(shù)路徑將會(huì)成為主流,包括專用加速IP和通用GPU融合,高速DRAM和緩存的進(jìn)一步演進(jìn),以及CPU和GPU的進(jìn)一步集成。比較Nvidia和AMD的技術(shù)路徑,我們可以發(fā)現(xiàn)Nvidia的強(qiáng)項(xiàng)在于坐擁人工智能生態(tài)護(hù)城河,通過(guò)極強(qiáng)的軟硬件協(xié)同設(shè)計(jì)能力和對(duì)于人工智能領(lǐng)域的洞察力,它在專用加速IP和通用GPU融合方面做得極為成功,因此可以通過(guò)最小的成本和功耗代價(jià)來(lái)實(shí)現(xiàn)最大化的相關(guān)任務(wù)性能提升。而AMD的強(qiáng)項(xiàng)在于其高級(jí)封裝領(lǐng)域的積累以及在CPU領(lǐng)域的經(jīng)驗(yàn),未來(lái)可望使用晶圓級(jí)技術(shù)的突破來(lái)提升性能。

  市場(chǎng)競(jìng)爭(zhēng)格局

  未來(lái)市場(chǎng)競(jìng)爭(zhēng)格局而言,Nvidia和AMD都是從傳統(tǒng)的游戲市場(chǎng)切入,在保持傳統(tǒng)游戲市場(chǎng)的同時(shí),也正在把精力越來(lái)越多地投入云端市場(chǎng)。Nvidia目前擁有服務(wù)器市場(chǎng)GPU的領(lǐng)先地位,但是從技術(shù)發(fā)展角度來(lái)看AMD的勢(shì)頭也很不錯(cuò),其關(guān)鍵在于能否打通軟件生態(tài),如果能突破Nvidia CUDA的生態(tài)包圍圈的話AMD可望在服務(wù)器市場(chǎng)也擁有重要的一席之地。

  在服務(wù)器市場(chǎng)另一個(gè)值得關(guān)注的新勢(shì)力是中國(guó)的GPU初創(chuàng)公司。以燧原,壁仞等為代表的GPU中國(guó)新興勢(shì)力也把服務(wù)器市場(chǎng)作為其主打方向。從市場(chǎng)動(dòng)態(tài)上來(lái)說(shuō),其實(shí)目前是一個(gè)很好的時(shí)間點(diǎn),因?yàn)樵贕PU市場(chǎng)來(lái)看,中國(guó)GPU較為薄弱的游戲渲染等領(lǐng)域正在被服務(wù)器市場(chǎng)增長(zhǎng)所取代,而在服務(wù)器市場(chǎng)相對(duì)來(lái)說(shuō)中國(guó)公司的技術(shù)包袱并不大,可以輕裝上陣。隨著未來(lái)國(guó)際形勢(shì)的變化(例如逆全球化),可望中國(guó)的GPU新勢(shì)力也能獲得GPU市場(chǎng)的重要份額。

 


  更多信息可以來(lái)這里獲取==>>電子技術(shù)應(yīng)用-AET<<

微信圖片_20210517164139.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。