美光開始量產(chǎn)行業(yè)領(lǐng)先的 HBM3E 解決方案
2024-03-04
來源:Micron Technology Inc.
2024 年 3 月 4 日,中國上海 —— 全球內(nèi)存與存儲解決方案領(lǐng)先供應(yīng)商 Micron Technology, Inc.(美光科技股份有限公司,納斯達克股票代碼:MU)近日宣布已開始量產(chǎn)其 HBM3E 高帶寬內(nèi)存 解決方案。英偉達 H200 Tensor Core GPU 將采用美光 8 層堆疊的 24GB 容量 HBM3E 內(nèi)存,并于 2024 年第二季度開始出貨。美光通過這一里程碑式進展持續(xù)保持行業(yè)領(lǐng)先地位,并且憑借 HBM3E 的超凡性能和能效為人工智能(AI)解決方案賦能。
HBM3E:推動人工智能革命
隨著人工智能需求的持續(xù)激增,內(nèi)存解決方案對于滿足工作負載需求的增加至關(guān)重要。美光 HBM3E 解決方案通過以下優(yōu)勢直面這一挑戰(zhàn):
卓越的性能:美光 HBM3E 引腳速率超過 9.2Gb/s,提供超過 1.2TB/s 的內(nèi)存帶寬,助力人工智能加速器、超級計算機和數(shù)據(jù)中心實現(xiàn)超高速的數(shù)據(jù)訪問。
出色的能效:美光 HBM3E 功耗比競品低約 30%, 處于行業(yè)領(lǐng)先地位。為支持日益增長的人工智能需求和用例,HBM3E 以更低功耗提供更大吞吐量,從而改善數(shù)據(jù)中心的主要運營支出指標。
無縫的可擴展性:美光 HBM3E 目前提供 24 GB 容量,使數(shù)據(jù)中心能夠無縫擴展其人工智能應(yīng)用。無論是用于訓練海量神經(jīng)網(wǎng)絡(luò)還是加速推理任務(wù),美光的解決方案都提供了必要的內(nèi)存帶寬。
美光執(zhí)行副總裁暨首席商務(wù)官 Sumit Sadana 表示:“美光憑借 HBM3E 這一里程碑式產(chǎn)品取得了三大成就:領(lǐng)先業(yè)界的上市時間、引領(lǐng)行業(yè)的性能和出眾的能效表現(xiàn)。人工智能工作負載在很大程度上依賴于內(nèi)存帶寬和容量。美光擁有業(yè)界領(lǐng)先的 HBM3E 和 HBM4 產(chǎn)品路線圖,以及為 AI 應(yīng)用打造的 DRAM 和 NAND 全套解決方案,為助力人工智能未來的大幅增長做足了準備。”
美光利用其 1β(1-beta)技術(shù)、先進的硅通孔(TSV)和其他實現(xiàn)差異化封裝解決方案的創(chuàng)新技術(shù)開發(fā)出業(yè)界領(lǐng)先的 HBM3E 設(shè)計。美光作為 2.5D/3D 堆疊和先進封裝技術(shù)領(lǐng)域長久以來的存儲領(lǐng)導廠商,有幸成為臺積電 3Dfabric 聯(lián)盟的合作伙伴成員,共同構(gòu)建半導體和系統(tǒng)創(chuàng)新的未來。
美光將于 2024 年 3 月出樣 12 層堆疊的 36GB 容量 HBM3E,提供超過 1.2TB/s 的性能和領(lǐng)先于競品的卓越能效,從而進一步強化領(lǐng)先地位。美光將贊助 3 月 18 日開幕的英偉達 GTC 全球人工智能大會,屆時將分享更多前沿 AI 內(nèi)存產(chǎn)品系列和路線圖。
更多精彩內(nèi)容歡迎點擊==>>電子技術(shù)應(yīng)用-AET<<