《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Cerebras推出全新晶圓級芯片WSE-3

Cerebras推出全新晶圓級芯片WSE-3

臺積電 5nm 制程,性能翻倍
2024-03-14
來源:快科技

3月14日消息,Cerebras Systems發(fā)布了他們的第三代晶圓AI加速芯片WSE-3”(Wafer Scale Engine 3),規(guī)格參數(shù)更加瘋狂,而且在功耗、價格不變的前提下性能翻了一番。

2019年的第一代WSE-1基于臺積電16nm工藝,面積46225平方毫米,晶體管1.2萬億個,擁有40萬個AI核心、18GB SRAM緩存,支持9PB/s內存帶寬、100Pb/s互連帶寬,功耗高達15千瓦。

1.jpg

2021年的第二代WSE-2升級臺積電7nm工藝,面積不變還是46225平方毫米,晶體管增至2.6萬億個,核心數(shù)增至85萬個,緩存擴至40GB,內存帶寬20PB/s,互連帶寬220Pb/s。

2.jpg

如今的第三代WSE-3再次升級為臺積電5nm工藝,面積沒說但應該差不多,畢竟需要一塊晶圓才能造出一顆芯片,不可能再大太多了。

晶體管數(shù)量繼續(xù)增加達到驚人的4萬億個,AI核心數(shù)量進一步增加到90萬個,緩存容量達到44GB,外部搭配內存容量可選1.5TB、12TB、1200TB。

乍一看,核心數(shù)量、緩存容量增加的不多,但性能實現(xiàn)了飛躍,峰值AI算力高達125PFlops,也就是每秒12.5億億次浮點計算,堪比頂級超算。

3.jpg

它可以訓練相當于GPT-4、Gemini十幾倍的下一代AI大模型,能在單一邏輯內存空間內存儲24萬億參數(shù),無需分區(qū)或者重構。

用它來訓練1萬億參數(shù)大模型的速度,相當于用GPU訓練10億參數(shù)。

四顆并聯(lián),它能在一天之內完成700億參數(shù)的調教,而且支持最多2048路互連,一天就可以完成Llama 700億參數(shù)的訓練。

WSE-3的具體功耗、價格沒公布,根據(jù)上代的情況看應該在200多萬美元。

4.png

5.jpg

6.jpg


weidian.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。