《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 英偉達、AMD:確認對華斷供高端GPU芯片

英偉達、AMD:確認對華斷供高端GPU芯片

2022-09-21
來源:EEPW
關鍵詞: 英偉達 AMD GPU芯片

據路透社報道,美國對中國再下重拳,禁止AMD英偉達部分高端GPU出口中國!

本文引用地址:http://www.eepw.com.cn/article/202209/438388.htm

英偉達周三表示,已經收到通知,美國官員要求其停止向中國出口兩款用于人工智能工作的頂級計算芯片,此舉可能會削弱中國公司開展先進技術的能力。像圖像識別這樣的工作,阻礙了英偉達在中國的業(yè)務。

英偉達股價盤后下跌 6.6%。該公司表示,該禁令影響了其旨在加速機器學習任務的 A100 和 H100 芯片,可能會干擾英偉達今年宣布的旗艦芯片 H100 的開發(fā)完成。

英偉達表示,美國官員告訴它,新規(guī)則“將解決所涉產品可能在中國被用于或轉用于‘軍事最終用途’或‘軍事最終用戶’的風險?!?/p>

與此同時,英偉達的競爭對手 AMD 也向媒體表示,公司也已收到新的許可要求,將阻止其 MI250 人工智能芯片出口到中國,但它相信其 MI100 芯片不會受到影響。AMD 表示,它不相信新規(guī)則會對其業(yè)務產生重大影響。受此消息影響AMD盤后下跌 3.79%。

由于個人電腦需求下降,英偉達已經面臨銷售下滑。在收到通知的前一天,該公司給出了令人失望的預測,稱需要削減出貨量以減少過剩的庫存。現在英偉達又面臨了更大的麻煩。英偉達表示,如果該公司沒有獲得向中國銷售芯片的許可,可能會損失 4 億美元的銷售額。這約占第三財季收入的 6.8%。

英偉達于美國時間8月31日披露了該通知,英偉達公司在一份電子郵件聲明中表示:“我們正在與中國客戶合作,以滿足他們計劃或未來購買替代產品的需求,并且可能會在替代產品不足的情況下尋求許可。新許可要求適用的唯一當前產品是 A100、H100 以及包含它們的 DGX 等系統?!?/p>

英偉達披露內容如下:

2022年8月26 日,美國政府或 USG 通知 NVIDIA,USG 已對本公司未來向中國(包括香港)和俄羅斯的任何出口實施一項新的許可要求,立即生效。A100 和即將推出的 H100 芯片,DGX 或包含 A100 或 H100 芯片和 A100X 的任何其他系統也包含在新的許可要求中。許可要求還包括任何未來的 NVIDIA 芯片,其峰值性能和芯片到芯片的 I/O 性能等于或大于大致相當于 A100 的閾值,以及包括了這些芯片的任何系統。出口技術以支持或開發(fā)涵蓋產品需要許可證。USG 表示,新的許可要求將解決涵蓋產品可能用于或轉用于中國和俄羅斯的“軍事最終用途”或“軍事最終用戶”的風險。

新的許可要求可能會影響公司及時完成 H100 開發(fā)或支持 A100 現有客戶的能力,并可能要求公司將某些業(yè)務轉移到中國以外。該公司與美國政府合作,并正在為公司的內部開發(fā)和支持活動尋求豁免。

此外,公司正在與中國的客戶接觸,并尋求滿足他們計劃或未來購買公司數據中心產品的需求,產品不受新許可要求的約束。如果客戶需要新許可要求涵蓋的產品,公司可能會為客戶尋求許可,但不能保證 USG 會為任何客戶授予任何豁免或許可,或者 USG 將在及時。

公司于 2022 年 8 月 24 日提供的第三財季展望包括對中國的約 4 億美元潛在銷售額,如果客戶不想購買公司的替代產品或 USG及時向重要客戶授予許可或拒絕許可。

A100 和 H100 有多強悍?

相比于英偉達前一代的 Volta GPU,A100 的性能提升了 20 倍,非常適合于人工智能、數據分析、科學計算和云圖形工作負載。該芯片由 540 億個晶體管組成,打包了第三代 Tensor 核心,并具有針對稀疏矩陣運算的加速功能,對于 AI 推理和訓練來說特別有用。此外,每個 GPU 可以劃分為多個實例,執(zhí)行不同的推理任務,采用 Nvidia NVLink 互連技術可以將多個 A100 GPU 用于更大的 AI 推理工作負載。

然而,這些在 H100 出現之后顯得略有不足了。在今年春季的發(fā)布會中,英偉達CEO黃仁勛發(fā)布了面向高性能計算(HPC)和數據中心的下一代 Hopper 架構,搭載新一代芯片的首款加速卡被命名為 H100,它就是 A100 的替代者。

H100 是一款針對大模型專門優(yōu)化過的芯片,使用臺積電 5nm 定制版本制程(4N)打造,單塊芯片包含 800 億晶體管。同時也是全球首款 PCI-E 5 和 HBM 3 顯卡,一塊 H100 的 IO 帶寬就是 40 terabyte 每秒。

Transformer 類預訓練模型是當前 AI 領域最熱門的方向,英偉達以此為目標專門優(yōu)化 H100 的設計,提出了 Transformer Engine,集合了新的 Tensor Core、FP8 和 FP16 精度計算,以及 Transformer 神經網絡動態(tài)處理能力,可以將此類機器學習模型的訓練時間從幾周縮短到幾天。

針對服務器應用,H100 也可以虛擬化為 7 個用戶共同使用,每個用戶獲得的算力相當于兩塊全功率的 T4 GPU。此外,H100 還實現了業(yè)界首個基于 GPU 的機密計算。

基于 Hopper 架構的 H100,英偉達還推出了機器學習工作站、超級計算機等一系列產品。8 塊 H100 和 4 個 NVLink 結合組成一個巨型 GPU——DGX H100,一共有 6400 億晶體管,AI 算力 32 petaflops,HBM3 內存容量高達 640G。

與此同時,得益于與 Equinix(管理全球 240 多個數據中心的全球服務提供商)的合作, A100 和 H100 的新型 GPU 通過水冷方式來節(jié)省用戶的能源成本。使用這種冷卻方法最多可以節(jié)省 110 億瓦時,可以在 AI 和 HPC 推理工作中實現 20 倍的效率提升。

今年 5 月份,英偉達曾開源了 Linux GPU 內核模塊代碼,未來是否還會有更多開源計劃,暫未可知。

指向中國超算 從全球 GPU 整體市場格局來看,Intel 得益于在筆記本電腦及傳統 PC 行業(yè)的優(yōu)勢,一直是集成 GPU 市場的龍頭,市場份額高達68.30%。但是,在獨立顯卡市場,則主要由英偉達和 AMD 兩家公司壟斷。

根據Jon Peddie Research的數據,2021年四季度,在全球獨立 GPU 市場,英偉達份額高達81%,其余19%則被AMD拿下。雖然近兩年英特爾推出了Xe系列獨立顯卡,但目前銷量仍相對有限,預計其最新的市場份額可能仍在5%以下。同樣,在面向數據中心的高端獨立GPU市場,也幾乎是由英偉達和AMD兩家壟斷。

北京半導體行業(yè)協會副秘書長朱晶對經濟觀察網表示,根據消息,被封鎖的產品是有足夠雙精度計算能力的高端GPU,就NVIDIA來說,是以A100算力為基準,比它先進的所有顯卡產品都會受限。

朱晶表示,根據消息,被封鎖的產品是有足夠雙精度計算能力的高端GPU,對于低端GPU不受影響。具備較高雙精度計算能力的高端GPU主要用于高性能計算領域,包括科學計算,CAE(計算機輔助工程),醫(yī)療等方面。

超算中心即國家超級計算中心,由數千甚至更多處理器組成,具備超高算力,被譽為“計算機中的珠穆朗瑪峰”,主要滿足國家高科技領域和尖端技術研究的需求。

相比之下,普通的數據中心面向所有需要信息技術支撐的場景,包括大量互聯網應用。中國的電信運營商、互聯網公司都自建數據中心。朱晶表示,企業(yè)級數據中心經常采購NVIDIA消息中的A100、H100產品,這些產品都是有足夠雙精度計算能力的高端GPU,上述斷供行為如果落實,造成的波及范圍會比較大。




更多信息可以來這里獲取==>>電子技術應用-AET<<


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。