相較于只能使用在深度學(xué)習(xí)推論(inferencing)的第一代Tensor Processing Unit (TPU)芯片,Google第二代人工智能(AI)芯片Cloud TPU不僅處理速度更快,還多了訓(xùn)練算法的能力,因此可望對NVIDIA繪圖處理器(GPU)芯片在AI市場的主導(dǎo)地位造成更大的威脅。
富比士(Forbes)報(bào)導(dǎo)指出,深度學(xué)習(xí)是一種利用大量資料對算法進(jìn)行訓(xùn)練的AI技術(shù),并已普遍應(yīng)用在影像與語音辨識功能上。在TPU問世以前,算法的訓(xùn)練多是交由NVIDIA的GPU負(fù)責(zé)處理。GPU原本是專為電動游戲等專業(yè)圖形處理任務(wù)所設(shè)計(jì),但其能將訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)所需時間,從幾個星期縮短至幾天,因此深受AI開發(fā)人員青睞。
不過由4塊芯片組成最新的Cloud TPU,每秒浮點(diǎn)運(yùn)算量號稱可達(dá)180tera FLOPS,比起NVIDIA最新一代GPU Tesla V100的120tera FLOPS高出不少。此外,Google也正嘗試將多個TPU集成為單一的TPU Pod系統(tǒng)。TPU Pod與NVIDIA的NVLink技術(shù)概念相似,并可望達(dá)到每秒11.5petaFLOPS的運(yùn)算能力。
對Google而言,GPU訓(xùn)練深度學(xué)習(xí)模型所需時間還是太長。像是Google翻譯應(yīng)用如果使用市面上最新的32片GPU芯片進(jìn)行訓(xùn)練,仍需要一整天的時間才能完成訓(xùn)練,但如果換成TPU Pod,只需要8分之1的運(yùn)算能力,就可在6個小時內(nèi)完成訓(xùn)練。
Google資深科學(xué)家Jeff Dean表示,第二代TPU提供了更強(qiáng)大的運(yùn)算能力,而Google將能藉此打造規(guī)模更大、更準(zhǔn)確的機(jī)器學(xué)習(xí)模型。
第二代TPU芯片除了將運(yùn)用在Google的內(nèi)部服務(wù)外,也將透過Google Cloud開放給外部開發(fā)人員,而Cloud TPU的租用方式與費(fèi)用將與目前GPU的租用規(guī)則相似。Google更計(jì)劃推出TensorFlow Research Cloud,并免費(fèi)發(fā)送1,000份TPU芯片供開放AI研究使用。
盡管Google的云端業(yè)務(wù)起步較亞馬遜(Amazon)及微軟(Microsoft)晚了一些,但第二代TPU的加入將可給予Google更多競爭優(yōu)勢。
不過也有不少人對Google的芯片事業(yè)發(fā)展持較保留的看法。分析師Patrick Moorhead便認(rèn)為,有監(jiān)于機(jī)器學(xué)習(xí)框架隨時都在改變,且其深度與復(fù)雜程度都不是單靠TPU就能應(yīng)付,Google未來仍將不能完全擺脫對GPU的依賴。
另一方面,由于TPU是專為Google的TensorFlow框架所設(shè)計(jì),因此外部開發(fā)人員如果要將TPU所開發(fā)的AI應(yīng)用移植至Google外的平臺,可能會面臨一定的風(fēng)險,而這也表示Google將更有機(jī)會把這些應(yīng)用鎖定在自家的云端平臺。