《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 可編程邏輯 > 業(yè)界動(dòng)態(tài) > 一文看懂人工智能芯片的產(chǎn)業(yè)生態(tài)及競(jìng)爭(zhēng)格局

一文看懂人工智能芯片的產(chǎn)業(yè)生態(tài)及競(jìng)爭(zhēng)格局

2018-05-16
關(guān)鍵詞: 智能芯片 寒武紀(jì)科技 CPU

  近日,國(guó)內(nèi)人工智能芯片公司寒武紀(jì)科技(Cambricon)獲得了一億美元A輪融資,是目前國(guó)內(nèi)人工智能芯片領(lǐng)域初創(chuàng)公司所獲得的最高融資記錄,如果要說(shuō)這樁融資對(duì)人工智能領(lǐng)域的最直接意義,或許是讓人工智能芯片逐漸走入了更多人的視野。

  深度學(xué)習(xí)不僅在傳統(tǒng)的語(yǔ)音識(shí)別、圖像識(shí)別、搜索/推薦引擎、計(jì)算廣告等領(lǐng)域證明了其劃時(shí)代的價(jià)值,也引爆了整個(gè)人工智能生態(tài)向更大的領(lǐng)域延伸。由于深度學(xué)習(xí)的訓(xùn)練(training)和推斷(inference)均需要大量的計(jì)算,人工智能界正在面臨前所未有的算力挑戰(zhàn),而其始作俑者,是摩爾定律的失效。

  由于結(jié)構(gòu)所限,CPU性能近年來(lái)未能呈現(xiàn)如摩爾定律預(yù)測(cè)的定期翻倍,于是具有數(shù)量眾多計(jì)算單元和超長(zhǎng)流水線、具備強(qiáng)大并行計(jì)算能力與浮點(diǎn)計(jì)算能力的GPU,成為了深度學(xué)習(xí)模型訓(xùn)練的標(biāo)配。GPU可以大幅加速深度學(xué)習(xí)模型的訓(xùn)練速度,相比CPU能提供更快的處理速度、更少的服務(wù)器投入和更低的功耗,并成為深度學(xué)習(xí)訓(xùn)練層面的事實(shí)工具標(biāo)準(zhǔn)。

1.jpg

  但是,隨著人工智能產(chǎn)業(yè)鏈的火速延伸,GPU并不能滿足所有場(chǎng)景(如手機(jī))上的深度學(xué)習(xí)計(jì)算任務(wù), GPU并不是深度學(xué)習(xí)算力痛點(diǎn)的唯一解。算力的剛需,吸引了眾多巨頭和初創(chuàng)公司紛紛進(jìn)入人工智能芯片領(lǐng)域,并形成了一個(gè)自下而上的生態(tài)體系,本文希望通過(guò)不太長(zhǎng)的篇幅,系統(tǒng)呈現(xiàn)這個(gè)繽紛而有趣的人工智能芯片生態(tài)。

  人工智能芯片分類

  一項(xiàng)深度學(xué)習(xí)工程的搭建,可分為訓(xùn)練(training)和推斷(inference)兩個(gè)環(huán)節(jié):訓(xùn)練環(huán)境通常需要通過(guò)大量的數(shù)據(jù)輸入,或采取增強(qiáng)學(xué)習(xí)等非監(jiān)督學(xué)習(xí)方法,訓(xùn)練出一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。訓(xùn)練過(guò)程由于涉及海量的訓(xùn)練數(shù)據(jù)(大數(shù)據(jù))和復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),需要的計(jì)算規(guī)模非常龐大,通常需要GPU集群訓(xùn)練幾天甚至數(shù)周的時(shí)間,在訓(xùn)練環(huán)節(jié)GPU目前暫時(shí)扮演著難以輕易替代的角色。

  推斷(inference)環(huán)節(jié)指利用訓(xùn)練好的模型,使用新的數(shù)據(jù)去“推斷”出各種結(jié)論,如視頻監(jiān)控設(shè)備通過(guò)后臺(tái)的深度神經(jīng)網(wǎng)絡(luò)模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環(huán)節(jié)的計(jì)算量相比訓(xùn)練環(huán)節(jié)少,但仍然涉及大量的矩陣運(yùn)算。在推斷環(huán)節(jié),除了使用CPU或GPU進(jìn)行運(yùn)算外,F(xiàn)PGA以及ASIC均能發(fā)揮重大作用。

  FPGA(可編程門(mén)陣列,F(xiàn)ield Programmable Gate Array)是一種集成大量基本門(mén)電路及存儲(chǔ)器的芯片,可通過(guò)燒入FPGA配置文件來(lái)來(lái)定義這些門(mén)電路及存儲(chǔ)器間的連線,從而實(shí)現(xiàn)特定的功能。而且燒入的內(nèi)容是可配置的,通過(guò)配置特定的文件可將FPGA轉(zhuǎn)變?yōu)椴煌奶幚砥鳎腿缫粔K可重復(fù)刷寫(xiě)的白板一樣。因此FPGA可靈活支持各類深度學(xué)習(xí)的計(jì)算任務(wù),性能上根據(jù)百度的一項(xiàng)研究顯示,對(duì)于大量的矩陣運(yùn)算GPU遠(yuǎn)好于FPGA,但是當(dāng)處理小計(jì)算量大批次的實(shí)際計(jì)算時(shí)FPGA性能優(yōu)于GPU,另外FPGA有低延遲的特點(diǎn),非常適合在推斷環(huán)節(jié)支撐海量的用戶實(shí)時(shí)計(jì)算請(qǐng)求(如語(yǔ)音云識(shí)別)。

  ASIC(專用集成電路,Application Specific Integrated Circuit)則是不可配置的高度定制專用芯片。特點(diǎn)是需要大量的研發(fā)投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無(wú)更改余地,若市場(chǎng)深度學(xué)習(xí)方向一旦改變,ASIC前期投入將無(wú)法回收,意味著ASIC具有較大的市場(chǎng)風(fēng)險(xiǎn)。但ASIC作為專用芯片性能高于FPGA,如能實(shí)現(xiàn)高出貨量,其單顆成本可做到遠(yuǎn)低于FPGA。

  在深度學(xué)習(xí)的訓(xùn)練和推斷環(huán)節(jié),常用到的芯片及特征如下圖所示:

2.jpg

  從市場(chǎng)角度而言,目前人工智能芯片的需求可歸納為三個(gè)類別:首先是面向于各大人工智能企業(yè)及實(shí)驗(yàn)室研發(fā)階段的訓(xùn)練環(huán)節(jié)市場(chǎng);其次是數(shù)據(jù)中心推斷(inference on cloud),無(wú)論是亞馬遜Alexa還是出門(mén)問(wèn)問(wèn)等主流人工智能應(yīng)用,均需要通過(guò)云端提供服務(wù),即推斷環(huán)節(jié)放在云端而非用戶設(shè)備上;第三種是面向智能手機(jī)、智能安防攝像頭、機(jī)器人/無(wú)人機(jī)、自動(dòng)駕駛、VR等設(shè)備的設(shè)備端推斷(inference on device)市場(chǎng),設(shè)備端推斷市場(chǎng)需要高度定制化、低功耗的人工智能芯片產(chǎn)品。如傳聞華為即將在Mate 10的麒麟970中搭載寒武紀(jì)IP,旨在為手機(jī)端實(shí)現(xiàn)較強(qiáng)的深度學(xué)習(xí)本地端計(jì)算能力,從而支撐以往需要云端計(jì)算的人工智能應(yīng)用。

  我們圍繞上述的分類標(biāo)準(zhǔn),從市場(chǎng)及芯片特性兩個(gè)角度出發(fā),可勾畫(huà)出一個(gè)人工智能芯片的生態(tài)體系,整個(gè)生態(tài)體系分為訓(xùn)練層、云端推斷層和設(shè)備端推斷層:

3.jpg

  Training層芯片生態(tài)

  毫無(wú)疑問(wèn)在深度學(xué)習(xí)的Training階段,GPU成為了目前一項(xiàng)事實(shí)的工具標(biāo)準(zhǔn)。由于AMD今年來(lái)在通用計(jì)算以及生態(tài)圈構(gòu)建方面都長(zhǎng)期缺位,導(dǎo)致了在深度學(xué)習(xí)GPU加速市場(chǎng)NVIDIA一家獨(dú)大的局面。根據(jù)NVIDIA今年Q2年報(bào)顯示,NVIDIA的Q2收入為達(dá)到22.3億美元,毛利率更是達(dá)到了驚人的58.4%,其中數(shù)據(jù)中心(主要為面向深度學(xué)習(xí)的Tesla加速服務(wù)器)Q2收入4.16億美元,同比上升達(dá)175.5%。

4.jpg

  面對(duì)深度學(xué)習(xí)Training這塊目前被NVIDIA賺得盆滿缽滿的市場(chǎng),眾多巨頭紛紛對(duì)此發(fā)起了挑戰(zhàn)。Google今年5月份發(fā)布了TPU 2.0,TPU是Google研發(fā)的一款針對(duì)深度學(xué)習(xí)加速的ASIC芯片,第一代TPU僅能用于推斷(即不可用于訓(xùn)練模型),并在AlphaGo人機(jī)大戰(zhàn)中提供了巨大的算力支撐。而目前Google發(fā)布的TPU 2.0除了推斷以外,還能高效支持訓(xùn)練環(huán)節(jié)的深度網(wǎng)絡(luò)加速。根據(jù)Google披露,Google在自身的深度學(xué)習(xí)翻譯模型的實(shí)踐中,如果在32塊頂級(jí)GPU上并行訓(xùn)練,需要一整天的訓(xùn)練時(shí)間,而在TPU2.0上,八分之一個(gè)TPU Pod(TPU集群,每64個(gè)TPU組成一個(gè)Pod)就能在6個(gè)小時(shí)內(nèi)完成同樣的訓(xùn)練任務(wù)。

  目前Google并沒(méi)急于推進(jìn)TPU芯片的商業(yè)化。Google在TPU芯片的整體規(guī)劃是,基于自家開(kāi)源、目前在深度學(xué)習(xí)框架領(lǐng)域排名第一的TensorFlow,結(jié)合Google云服務(wù)推出TensorFlow Cloud,通過(guò)TensorFlow加TPU云加速的模式為AI開(kāi)發(fā)者提供服務(wù),Google或許并不會(huì)考慮直接出售TPU芯片。如果一旦Google將來(lái)能為AI開(kāi)發(fā)者提供相比購(gòu)買(mǎi)GPU更低成本的TPU云加速服務(wù),借助TensorFlow生態(tài)毫無(wú)疑問(wèn)會(huì)對(duì)NVIDIA構(gòu)成重大威脅。

  當(dāng)然TPU作為一種ASIC芯片方案,意味著其巨大的研發(fā)投入和市場(chǎng)風(fēng)險(xiǎn),而其背后的潛在市場(chǎng)也是巨大的:一個(gè)橫跨訓(xùn)練和云端推斷的龐大云服務(wù),但目前恐怕只有Google才有如此巨大的決心和資源稟賦,使用ASIC芯片去構(gòu)筑這一布局——如果將來(lái)TPU云服務(wù)無(wú)法獲得巨大的市場(chǎng)份額從而降低單顆TPU的成本,Google將難以在這一市場(chǎng)盈利。但市場(chǎng)的培育除了芯片本身顯然是不足夠的,還包括讓眾多熟悉GPU加速的研究/開(kāi)發(fā)者轉(zhuǎn)到TPU云計(jì)算平臺(tái)的轉(zhuǎn)換成本,這意味著Google要做大量的生態(tài)系統(tǒng)培育工作。

  除了Google外,昔日的GPU王者AMD目前也奮起直追,發(fā)布了三款基于Radeon Instinct的深度學(xué)習(xí)加速器方案,希望在GPU深度學(xué)習(xí)加速市場(chǎng)分回一點(diǎn)份額,當(dāng)然AMD是否能針對(duì)NVIDIA的同類產(chǎn)品獲得相對(duì)優(yōu)勢(shì)尚為未知之?dāng)?shù)。

  對(duì)于現(xiàn)任老大NVIDIA而言,目前當(dāng)務(wù)之急無(wú)疑是建立護(hù)城河保衛(wèi)其市場(chǎng)份額,總結(jié)起來(lái)是三方面的核心舉措。一方面在產(chǎn)品研發(fā)上,NVIDIA耗費(fèi)了高達(dá)30億美元的研發(fā)投入,推出了基于Volta、首款速度超越100TFlops的處理器Tesla,主打工業(yè)級(jí)超大規(guī)模深度網(wǎng)絡(luò)加速;另外一方面是加強(qiáng)人工智能軟件堆棧體系的生態(tài)培育,即提供易用、完善的GPU深度學(xué)習(xí)平臺(tái),不斷完善CUDA、 cuDNN等套件以及深度學(xué)習(xí)框架、深度學(xué)習(xí)類庫(kù)來(lái)保持NVIDIA體系GPU加速方案的粘性。第三是推出NVIDIA GPU Cloud云計(jì)算平臺(tái),除了提供GPU云加速服務(wù)外,NVIDIA以NVDocker方式提供全面集成和優(yōu)化的深度學(xué)習(xí)框架容器庫(kù),以其便利性進(jìn)一步吸引中小AI開(kāi)發(fā)者使用其平臺(tái)。

  核心驅(qū)動(dòng)能力:對(duì)于深度學(xué)習(xí)訓(xùn)練這個(gè)人工智能生態(tài)最為關(guān)鍵的一環(huán),我們可以看到競(jìng)爭(zhēng)的核心已經(jīng)不是單純的芯片本身,而是基于芯片加速背后的整個(gè)生態(tài)圈,提供足夠友好、易用的工具環(huán)境讓開(kāi)發(fā)者迅速獲取到深度學(xué)習(xí)加速算力,從而降低深度學(xué)習(xí)模型研發(fā)+訓(xùn)練加速的整體TCO和研發(fā)周期。一言蔽之,這個(gè)領(lǐng)域是巨頭玩家的戰(zhàn)場(chǎng),普通的初創(chuàng)公司進(jìn)入這個(gè)領(lǐng)域幾乎沒(méi)有任何的機(jī)會(huì),接下來(lái)的核心看點(diǎn),是Google究竟是否能憑借TensorFlow+Google Cloud+TPU 2.0生態(tài)取得對(duì)NVIDIA的相對(duì)優(yōu)勢(shì),以市場(chǎng)份額的量變引起質(zhì)變。畢竟相比主打通用計(jì)算的NVIDIA GPU,TPU的ASIC方案當(dāng)出貨量突破一定閾值后,其單顆價(jià)格和功耗比均能構(gòu)成無(wú)法忽視的競(jìng)爭(zhēng)優(yōu)勢(shì)。當(dāng)然,這取決于兩個(gè)前提條件:一是深度學(xué)習(xí)主流框架在今后幾年不發(fā)生重大變化,比如深度學(xué)習(xí)變得不再高度依賴矩陣運(yùn)算,否則一顆寫(xiě)死的ASIC將失去幾乎一切價(jià)值。二是Google能構(gòu)筑出足夠好用的生態(tài),讓眾多AI研究/開(kāi)發(fā)者從CUDA+GPU轉(zhuǎn)向Google,打破業(yè)界對(duì)NVIDIA的路徑依賴,而這點(diǎn)才是真正艱難的道路。

  Inference On Cloud層芯片生態(tài)

  當(dāng)一項(xiàng)深度學(xué)習(xí)應(yīng)用,如基于深度神經(jīng)網(wǎng)絡(luò)的機(jī)器翻譯服務(wù),經(jīng)過(guò)數(shù)周甚至長(zhǎng)達(dá)數(shù)月的GPU集群并行訓(xùn)練后獲得了足夠性能,接下來(lái)將投入面向終端用戶的消費(fèi)級(jí)服務(wù)應(yīng)用中。由于一般而言訓(xùn)練出來(lái)的深度神經(jīng)網(wǎng)絡(luò)模型往往非常復(fù)雜,其Inference(推斷)仍然是計(jì)算密集型和存儲(chǔ)密集型的,這使得它難以被部署到資源有限的終端用戶設(shè)備(如智能手機(jī))上。正如Google不期望用戶會(huì)安裝一個(gè)大小超過(guò)300M的機(jī)器翻譯APP應(yīng)用到手機(jī)上,并且每次翻譯推斷(應(yīng)用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型計(jì)算出翻譯的結(jié)果)的手機(jī)本地計(jì)算時(shí)間長(zhǎng)達(dá)數(shù)分鐘甚至耗盡手機(jī)電量仍然未完成計(jì)算。這時(shí)候,云端推斷(Inference On Cloud)在人工智能應(yīng)用部署架構(gòu)上變得非常必要。

5.jpg

  雖然單次推斷的計(jì)算量遠(yuǎn)遠(yuǎn)無(wú)法和訓(xùn)練相比,但如果假設(shè)有1000萬(wàn)人同時(shí)使用這項(xiàng)機(jī)器翻譯服務(wù),其推斷的計(jì)算量總和足以對(duì)云服務(wù)器帶來(lái)巨大壓力,而隨著人工智能應(yīng)用的普及,這點(diǎn)無(wú)疑會(huì)變成常態(tài)以及業(yè)界的另一個(gè)痛點(diǎn)。由于海量的推斷請(qǐng)求仍然是計(jì)算密集型任務(wù),CPU在推斷環(huán)節(jié)再次成為瓶頸。但在云端推斷環(huán)節(jié),GPU不再是最優(yōu)的選擇,取而代之的是,目前3A(阿里云、Amazon、微軟Azure)都紛紛探索云服務(wù)器+FPGA芯片模式替代傳統(tǒng)CPU以支撐推斷環(huán)節(jié)在云端的技術(shù)密集型任務(wù)。

  亞馬遜 AWS 在去年推出了基于 FPGA 的云服務(wù)器 EC2 F1;微軟早在2015年就通過(guò)Catapult 項(xiàng)目在數(shù)據(jù)中心實(shí)驗(yàn)CPU+FPGA方案;而百度則選擇與FPGA巨頭Xilinx(賽思靈)合作,在百度云服務(wù)器中部署KintexFPGA,用于深度學(xué)習(xí)推斷,而阿里云、騰訊云均有類似圍繞FPGA的布局,具體如下表所示。當(dāng)然值得一提的是,F(xiàn)PGA芯片廠商也出現(xiàn)了一家中國(guó)企業(yè)的身影——清華系背景、定位于深度學(xué)習(xí)FPGA方案的深鑒科技,目前深鑒已經(jīng)獲得了Xilinx的戰(zhàn)略性投資。

6.jpg

  云計(jì)算巨頭紛紛布局云計(jì)算+FPGA芯片,首先因?yàn)镕PGA作為一種可編程芯片,非常適合部署于提供虛擬化服務(wù)的云計(jì)算平臺(tái)之中。FPGA的靈活性,可賦予云服務(wù)商根據(jù)市場(chǎng)需求調(diào)整FPGA加速服務(wù)供給的能力。比如一批深度學(xué)習(xí)加速的FPGA實(shí)例,可根據(jù)市場(chǎng)需求導(dǎo)向,通過(guò)改變芯片內(nèi)容變更為如加解密實(shí)例等其他應(yīng)用,以確保數(shù)據(jù)中心中FPGA的巨大投資不會(huì)因?yàn)槭袌?chǎng)風(fēng)向變化而陷入風(fēng)險(xiǎn)之中。另外,由于FPGA的體系結(jié)構(gòu)特點(diǎn),非常適合用于低延遲的流式計(jì)算密集型任務(wù)處理,意味著FPGA芯片做面向與海量用戶高并發(fā)的云端推斷,相比GPU具備更低計(jì)算延遲的優(yōu)勢(shì),能夠提供更佳的消費(fèi)者體驗(yàn)。

  在云端推斷的芯片生態(tài)中,不得不提的最重要力量是PC時(shí)代的王者英特爾。面對(duì)摩爾定律失效的CPU產(chǎn)品線,英特爾痛定思痛,將PC時(shí)代積累的現(xiàn)金流,通過(guò)多樁大手筆的并購(gòu)迅速補(bǔ)充人工智能時(shí)代的核心資源能力。首先以 167 億美元的代價(jià)收購(gòu) FPGA界排名第二的Altera,整合Altera多年FPGA技術(shù)以及英特爾自身的生產(chǎn)線,推出CPU + FPGA 異構(gòu)計(jì)算產(chǎn)品主攻深度學(xué)習(xí)的云端推斷市場(chǎng)。另外,去年通過(guò)收購(gòu)擁有為深度學(xué)習(xí)優(yōu)化的硬件和軟件堆棧的Nervana,補(bǔ)全了深度學(xué)習(xí)領(lǐng)域的軟件服務(wù)能力。當(dāng)然,不得不提的是英特爾還收購(gòu)了領(lǐng)先的ADAS服務(wù)商Mobileye以及計(jì)算機(jī)視覺(jué)處理芯片廠商Movidius,將人工智能芯片的觸角延伸到了設(shè)備端市場(chǎng),這點(diǎn)將在本文余下部分講述。

7.jpg

  相比Training市場(chǎng)中NVIDIA一家獨(dú)大,云端推斷芯片領(lǐng)域目前可謂風(fēng)起云涌,一方面英特爾希望通過(guò)深耕CPU+FPGA解決方案,成為云端推斷領(lǐng)域的NVIDIA,打一次漂亮的翻身仗。另外由于云端推斷市場(chǎng)當(dāng)前的需求并未進(jìn)入真正的高速爆發(fā)期,多數(shù)人工智能應(yīng)用當(dāng)前仍處于試驗(yàn)性階段,尚未在消費(fèi)級(jí)市場(chǎng)形成巨大需求,各云計(jì)算服務(wù)商似乎有意憑借自身云服務(wù)優(yōu)勢(shì),在這個(gè)爆發(fā)點(diǎn)來(lái)臨之前布局自己的云端FPGA應(yīng)用生態(tài),做到肥水不流外人(英特爾)田,另外一個(gè)不可忽視的因素,是Google的TPU生態(tài)對(duì)云端推斷的市場(chǎng)份額同樣有巨大的野心,也許這將會(huì)是一場(chǎng)徹頭徹尾的大混戰(zhàn)。

  Inference On Device層芯片生態(tài)

  隨著人工智能應(yīng)用生態(tài)的爆發(fā),將會(huì)出現(xiàn)越來(lái)越多不能單純依賴云端推斷的設(shè)備。例如,自動(dòng)駕駛汽車的推斷,不能交由云端完成,否則如果出現(xiàn)網(wǎng)絡(luò)延時(shí)則是災(zāi)難性后果;或者大型城市動(dòng)輒百萬(wàn)級(jí)數(shù)量的高清攝像頭,其人臉識(shí)別推斷如果全交由云端完成,高清錄像的網(wǎng)絡(luò)傳輸帶寬將讓整個(gè)城市的移動(dòng)網(wǎng)絡(luò)不堪重負(fù)。未來(lái)在相當(dāng)一部分人工智能應(yīng)用場(chǎng)景中,要求終端設(shè)備本身需要具備足夠的推斷計(jì)算能力,而顯然當(dāng)前ARM等架構(gòu)芯片的計(jì)算能力,并不能滿足這些終端設(shè)備的本地深度神經(jīng)網(wǎng)絡(luò)推斷,業(yè)界需要全新的低功耗異構(gòu)芯片,賦予設(shè)備足夠的算力去應(yīng)對(duì)未來(lái)越發(fā)增多的人工智能應(yīng)用場(chǎng)景。

  有哪些設(shè)備需要具備Inference On Device能力?主流場(chǎng)景包括智能手機(jī)、ADAS、CV設(shè)備、VR設(shè)備、語(yǔ)音交互設(shè)備以及機(jī)器人。

8.jpg

  智能手機(jī)——智能手機(jī)中嵌入深度神經(jīng)網(wǎng)絡(luò)加速芯片,或許將成為業(yè)界的一個(gè)新趨勢(shì),當(dāng)然這個(gè)趨勢(shì)要等到有足夠基于深度學(xué)習(xí)的殺手級(jí)APP出現(xiàn)才能得以確認(rèn)。傳聞中華為即將在Mate 10的麒麟970中搭載寒武紀(jì)IP,為Mate 10帶來(lái)較強(qiáng)的深度學(xué)習(xí)本地端推斷能力,讓各類基于深度神經(jīng)網(wǎng)絡(luò)的攝影/圖像處理應(yīng)用能夠?yàn)橛脩籼峁└拥捏w驗(yàn)。另外,高通同樣有意在日后的芯片中加入驍龍神經(jīng)處理引擎,用于本地端推斷,同時(shí)ARM也推出了針對(duì)深度學(xué)習(xí)優(yōu)化的DynamIQ技術(shù)。對(duì)于高通等SoC廠商,在其成熟的芯片方案中加入深度學(xué)習(xí)加速器IP并不是什么難事,智能手機(jī)未來(lái)人工智能芯片的生態(tài)基本可以斷定仍會(huì)掌握在傳統(tǒng)SoC商手中。

  ADAS(高級(jí)輔助駕駛系統(tǒng))——ADAS作為最吸引大眾眼球的人工智能應(yīng)用之一,需要處理海量由激光雷達(dá)、毫米波雷達(dá)、攝像頭等傳感器采集的海量實(shí)時(shí)數(shù)據(jù)。作為ADAS的中樞大腦,ADAS芯片市場(chǎng)的主要玩家包括今年被英特爾收購(gòu)的Mobileye、去年被高通以470億美元驚人價(jià)格收購(gòu)的NXP,以及汽車電子的領(lǐng)軍企業(yè)英飛凌。隨著NVIDIA推出自家基于 GPU的ADAS解決方案Drive PX2,NVIDIA也加入到戰(zhàn)團(tuán)之中。

  CV(計(jì)算機(jī)視覺(jué),Computer Vision)設(shè)備——計(jì)算機(jī)視覺(jué)領(lǐng)域全球領(lǐng)先的芯片提供商是Movidius,目前已被英特爾收購(gòu),大疆無(wú)人機(jī)、??低暫痛笕A股份的智能監(jiān)控?cái)z像頭均使用了Movidius的Myriad系列芯片。需要深度使用計(jì)算機(jī)視覺(jué)技術(shù)的設(shè)備,如上述提及的智能攝像頭、無(wú)人機(jī),以及行車記錄儀、人臉識(shí)別迎賓機(jī)器人、智能手寫(xiě)板等設(shè)備,往往都具有本地端推斷的剛需,如剛才提及的這些設(shè)備如果僅能在聯(lián)網(wǎng)下工作,無(wú)疑將帶來(lái)糟糕的體驗(yàn)。。而計(jì)算機(jī)視覺(jué)技術(shù)目前看來(lái)將會(huì)成為人工智能應(yīng)用的沃土之一,計(jì)算機(jī)視覺(jué)芯片將擁有廣闊的市場(chǎng)前景。目前國(guó)內(nèi)做計(jì)算機(jī)視覺(jué)技術(shù)的公司以初創(chuàng)公司為主,如商湯科技、阿里系曠視、騰訊優(yōu)圖,以及云從、依圖等公司。在這些公司中,未來(lái)有可能隨著其自身計(jì)算機(jī)視覺(jué)技術(shù)的積累漸深,部分公司將會(huì)自然而然轉(zhuǎn)入CV芯片的研發(fā)中,正如Movidius也正是從計(jì)算機(jī)視覺(jué)技術(shù)到芯片商一路走來(lái)的路徑。

  VR設(shè)備、語(yǔ)音交互設(shè)備以及機(jī)器人——由于篇幅關(guān)系,這幾個(gè)領(lǐng)域放在一起介紹。VR設(shè)備芯片的代表為微軟為自身VR設(shè)備Hololens而研發(fā)的HPU芯片,這顆由臺(tái)積電代工的芯片能同時(shí)處理來(lái)自5個(gè)攝像頭、一個(gè)深度傳感器以及運(yùn)動(dòng)傳感器的數(shù)據(jù),并具備計(jì)算機(jī)視覺(jué)的矩陣運(yùn)算和CNN運(yùn)算的加速功能。語(yǔ)音交互設(shè)備芯片方面,國(guó)內(nèi)有啟英泰倫以及云知聲兩家公司,其提供的芯片方案均內(nèi)置了為語(yǔ)音識(shí)別而優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)加速方案,實(shí)現(xiàn)設(shè)備的語(yǔ)音離線識(shí)別。機(jī)器人方面,無(wú)論是家居機(jī)器人還是商用服務(wù)機(jī)器人均需要專用軟件+芯片的人工智能解決方案,這方面典型公司有由前百度深度學(xué)習(xí)實(shí)驗(yàn)室負(fù)責(zé)人余凱創(chuàng)辦的地平線機(jī)器人,當(dāng)然地平線機(jī)器人除此之外,還提供ADAS、智能家居等其他嵌入式人工智能解決方案。

  在Inference On Device領(lǐng)域,我們看到的是一個(gè)繽紛的生態(tài)。因?yàn)闊o(wú)論是ADAS還是各類CV、VR等設(shè)備領(lǐng)域,人工智能應(yīng)用仍遠(yuǎn)未成熟,各人工智能技術(shù)服務(wù)商在深耕各自領(lǐng)域的同時(shí),逐漸由人工智能軟件演進(jìn)到軟件+芯片解決方案是自然而然的路徑,因此形成了豐富的芯片產(chǎn)品方案。但我們同時(shí)觀察到的是,NVIDIA、英特爾等巨頭逐漸也將觸手延伸到了Inference On Device領(lǐng)域,意圖形成端到端的綜合人工智能解決方案體系,實(shí)現(xiàn)各層次資源的聯(lián)動(dòng)。

  雷鋒網(wǎng)按:本文為專欄投稿文章,作者胡嘉琪。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。