《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Arm 攜手行業(yè)領先企業(yè),共同打造面向未來的 AI 基礎

Arm 攜手行業(yè)領先企業(yè),共同打造面向未來的 AI 基礎

2023-11-07
來源:Arm
關鍵詞: ARM AI LLM

  Arm? 今日宣布多項全新的戰(zhàn)略合作,繼續(xù)致力于推動人工智能 (AI) 的創(chuàng)新,并將 AI 的體驗變?yōu)楝F(xiàn)實。除了自身已能實現(xiàn) AI 開發(fā)的技術(shù)平臺之外,Arm 還與 AMD、英特爾、Meta、微軟、NVIDIA 和高通技術(shù)公司等領先的科技企業(yè)攜手合作,通過多項計劃,聚焦于先進 AI 能力的實現(xiàn),由此帶來更快響應、更加安全的用戶體驗。這些合作計劃將在所有計算進行之處,助力 1500 多萬名 Arm 開發(fā)者,構(gòu)建其所需的基礎框架、技術(shù)和規(guī)范,帶來新一代的 AI 體驗。

  Arm 執(zhí)行副總裁兼首席架構(gòu)師與院士 Richard Grisenthwaite 表示:“AI 的廣泛應用依賴于軟、硬件創(chuàng)新的持續(xù)協(xié)同。小到邊緣側(cè)運行工作負載的小型傳感器,大到處理復雜工作負載以訓練大語言模型 (LLM) 的大型服務器,軟硬件的協(xié)同發(fā)展將在每個技術(shù)節(jié)點中,助力 AI 能力的提升。隨著整個生態(tài)系統(tǒng)不斷發(fā)掘 AI 的真正潛力,我們也將面臨安全性、可持續(xù)性和數(shù)據(jù)瓶頸等諸多挑戰(zhàn)。因此,繼續(xù)探索行業(yè)內(nèi)的協(xié)作至關重要,為此,我們才能實現(xiàn) AI 的規(guī)模化,包括加大邊緣側(cè)的推理能力?!?/p>

  助力邊緣 AI 發(fā)展

  當下生成式 AI 和 LLM 正成為人們關注的焦點,而鑒于在智能手機領域,70% 的第三方 AI 應用都運行在 Arm CPU 上,Arm 已引領邊緣 AI 長達多年。在探索如何以可持續(xù)的方式實現(xiàn) AI 并高效傳輸數(shù)據(jù)的同時,行業(yè)也需要繼續(xù)發(fā)展以實現(xiàn)在邊緣側(cè)運行 AI 和機器學習 (ML) 模型,然而,開發(fā)者在此卻面臨著計算資源日益受限的難題,使這個任務的實現(xiàn)充滿了挑戰(zhàn)。

  Arm 正與 NVIDIA 展開合作,針對 NVIDIA TAO 進行適配。這是一套針對 Arm Ethos?-U NPU 使用的低代碼開源 AI 工具包,有助于構(gòu)建性能優(yōu)化的視覺 AI 模型,并將其部署于搭載 Ethos-U 的處理器上。NVIDIA TAO 提供了一個易使用的界面,可在免費且開源的領先 AI 和 ML 框架——TensorFlow 和 PyTorch 上進行構(gòu)建工作,為開發(fā)者帶來輕松無縫的模型開發(fā)和部署環(huán)境,同時賦能邊緣設備實現(xiàn)更復雜的 AI 工作負載,提升 AI 體驗。

  在所有設備與市場中推動神經(jīng)網(wǎng)絡的應用

  在邊緣側(cè)推進神經(jīng)網(wǎng)絡的部署是實現(xiàn) AI 可持續(xù)增長的重要一環(huán)。Arm 攜手 Meta,通過 ExecuTorch,將 PyTorch 引入基于 Arm 架構(gòu)的邊緣側(cè)移動和嵌入式平臺。ExecuTorch 可助力開發(fā)者更輕松地在移動和邊緣設備上,部署先進的 AI 和 ML 工作負載所需的先進神經(jīng)網(wǎng)絡。Arm 與 Meta 的合作將確保通過 PyTorch 和 ExecuTorch,開發(fā)者能在未來更輕松地開發(fā)和部署 AI 與 ML 模型。

  與 Meta 的合作依托于 Arm 在 Tensor 運算符集架構(gòu) (TOSA) 方面的巨大投入,TOSA 為 AI 和 ML 加速器提供了通用框架,并支持廣泛的深度神經(jīng)網(wǎng)絡工作負載。在基于 Arm 架構(gòu)的各種處理器和數(shù)十億的設備上,TOSA 也將成為 AI 和 ML 的堅實基石。

  推動產(chǎn)業(yè)規(guī)模化的 AI

  若要以相對低的成本實現(xiàn) AI 規(guī)?;涞?,支持廣泛的數(shù)據(jù)格式至關重要。Arm 一直在為諸多專注于 AI 工作負載的新型小數(shù)據(jù)類型提供支持。

  去年,Arm、英特爾和 NVIDIA 聯(lián)合發(fā)布了新型 8 位浮點規(guī)范,即“FP8”。自此 FP8 格式發(fā)展迅猛,參與合作的企業(yè)已擴大至 AMD、Arm、谷歌、英特爾、Meta 和 NVIDIA,并共同制定了正式的 OCP 8 位浮點規(guī)范 (OFP8)。在最新的 A-profile 架構(gòu)更新中,Arm 添加了與該標準一致的 OFP8,以助力其在行業(yè)內(nèi)神經(jīng)網(wǎng)絡中的快速普及。OFP8 是交換 8 位數(shù)據(jù)格式,使軟件生態(tài)系統(tǒng)能夠輕松共享神經(jīng)網(wǎng)絡模型,從而不斷提高數(shù)十億設備上的 AI 計算能力。

  開放的標準對于推動 AI 生態(tài)系統(tǒng)的創(chuàng)新、一致性與互操作性至關重要。為繼續(xù)支持相關標準的行業(yè)協(xié)作,Arm 于近日正式加入了 MX 聯(lián)盟,該聯(lián)盟旗下成員包括了 AMD、Arm、英特爾、Meta、微軟、 NVIDIA 和高通技術(shù)公司。近期,MX 聯(lián)盟針對名為微擴展的新技術(shù),進行技術(shù)規(guī)范的合作。這項技術(shù)基于芯片設計領域多年的探索與研究,是一種用于 AI 應用的窄位(8 位和 8 位以下)訓練與推理的精細擴展方法。該規(guī)范對窄位數(shù)據(jù)格式進行了標準化,以消除行業(yè)的碎片化,實現(xiàn) AI 的規(guī)?;?/p>

  秉承合作精神,MX 聯(lián)盟通過開放計算項目 OCP,以開放、免許可的形式發(fā)布了 MX 規(guī)范。OCP 項目由超大規(guī)模數(shù)據(jù)中心運營商和計算基礎設施領域的其他行業(yè)參與者組成,旨在促進相關技術(shù)在業(yè)內(nèi)的廣泛采用。這也體現(xiàn)了各方認識到在生態(tài)系統(tǒng)中對可擴展 AI 解決方案提供公平訪問的必要需求。

  前所未有的 AI 創(chuàng)新

  Arm 已成為全球 AI 部署的基礎。Arm 致力于為開發(fā)者提供構(gòu)建先進、復雜的 AI 工作負載所需的技術(shù),而上述的種種合作只是Arm 眾多舉措中的一部分。從傳感器、智能手機和軟件定義汽車,到服務器和超級計算機,Arm 將成為未來 AI 發(fā)展的基石。



更多精彩內(nèi)容歡迎點擊==>>電子技術(shù)應用-AET<<

mmexport1621241704608.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。