《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 業(yè)界動態(tài) > 谷歌第二代TPU再“飛升” 動搖英偉達(dá)GPU市場主導(dǎo)地位

谷歌第二代TPU再“飛升” 動搖英偉達(dá)GPU市場主導(dǎo)地位

2017-06-16
關(guān)鍵詞: 谷歌 GPU TPU 芯片

1497493172734074911.jpg

相較于只能使用在深度學(xué)習(xí)推論(inferencing)的第一代Tensor Processing Unit (TPU)芯片,Google第二代人工智能(AI)芯片Cloud TPU不僅處理速度更快,還多了訓(xùn)練算法的能力,因此可望對NVIDIA繪圖處理器(GPU)芯片在AI市場的主導(dǎo)地位造成更大的威脅。

富比士(Forbes)報(bào)導(dǎo)指出,深度學(xué)習(xí)是一種利用大量資料對算法進(jìn)行訓(xùn)練的AI技術(shù),并已普遍應(yīng)用在影像與語音辨識功能上。在TPU問世以前,算法的訓(xùn)練多是交由NVIDIA的GPU負(fù)責(zé)處理。GPU原本是專為電動游戲等專業(yè)圖形處理任務(wù)所設(shè)計(jì),但其能將訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)所需時間,從幾個星期縮短至幾天,因此深受AI開發(fā)人員青睞。

不過由4塊芯片組成最新的Cloud TPU,每秒浮點(diǎn)運(yùn)算量號稱可達(dá)180tera FLOPS,比起NVIDIA最新一代GPU Tesla V100的120tera FLOPS高出不少。此外,Google也正嘗試將多個TPU集成為單一的TPU Pod系統(tǒng)。TPU Pod與NVIDIA的NVLink技術(shù)概念相似,并可望達(dá)到每秒11.5petaFLOPS的運(yùn)算能力。

對Google而言,GPU訓(xùn)練深度學(xué)習(xí)模型所需時間還是太長。像是Google翻譯應(yīng)用如果使用市面上最新的32片GPU芯片進(jìn)行訓(xùn)練,仍需要一整天的時間才能完成訓(xùn)練,但如果換成TPU Pod,只需要8分之1的運(yùn)算能力,就可在6個小時內(nèi)完成訓(xùn)練。

Google資深科學(xué)家Jeff Dean表示,第二代TPU提供了更強(qiáng)大的運(yùn)算能力,而Google將能藉此打造規(guī)模更大、更準(zhǔn)確的機(jī)器學(xué)習(xí)模型。

第二代TPU芯片除了將運(yùn)用在Google的內(nèi)部服務(wù)外,也將透過Google Cloud開放給外部開發(fā)人員,而Cloud TPU的租用方式與費(fèi)用將與目前GPU的租用規(guī)則相似。Google更計(jì)劃推出TensorFlow Research Cloud,并免費(fèi)發(fā)送1,000份TPU芯片供開放AI研究使用。

盡管Google的云端業(yè)務(wù)起步較亞馬遜(Amazon)及微軟(Microsoft)晚了一些,但第二代TPU的加入將可給予Google更多競爭優(yōu)勢。

不過也有不少人對Google的芯片事業(yè)發(fā)展持較保留的看法。分析師Patrick Moorhead便認(rèn)為,有監(jiān)于機(jī)器學(xué)習(xí)框架隨時都在改變,且其深度與復(fù)雜程度都不是單靠TPU就能應(yīng)付,Google未來仍將不能完全擺脫對GPU的依賴。

另一方面,由于TPU是專為Google的TensorFlow框架所設(shè)計(jì),因此外部開發(fā)人員如果要將TPU所開發(fā)的AI應(yīng)用移植至Google外的平臺,可能會面臨一定的風(fēng)險,而這也表示Google將更有機(jī)會把這些應(yīng)用鎖定在自家的云端平臺。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。