《電子技術(shù)應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 華為宣布開源盤古7B稠密和72B混合專家模型

華為宣布開源盤古7B稠密和72B混合專家模型

2025-07-01
來源:芯智訊
關(guān)鍵詞: 華為 盤古大模型 昇騰

2025年6月30日,華為正式宣布開源盤古7B參數(shù)的稠密模型、盤古Pro MoE 72B混合專家模型和基于昇騰的模型推理技術(shù)。

000.png

華為稱,此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關(guān)鍵舉措,推動大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進人工智能在千行百業(yè)的應用與價值創(chuàng)造。

目前,盤古Pro MoE 72B模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺;基于昇騰的超大規(guī)模MoE模型推理代碼,已正式上線開源平臺;盤古7B相關(guān)模型權(quán)重與推理代碼將于近期上線開源平臺。

根據(jù)華為此前公布的信息顯示,盤古7B模型為雙系統(tǒng)框架,具備“快思慢想”功能,能夠根據(jù)任務復雜度自動選擇合適的模式,即在常規(guī)請求下使用“快思考”模式,在復雜推理任務下使用“慢思考”模式,從而在延遲和推理深度之間實現(xiàn)平衡。在多款復雜推理測試中,盤古7B的性能要強于阿里巴巴旗下的Qwen3-8B、智譜旗下的GLM4-9B,

盤古Pro MoE 72B混合專家模型參數(shù)量為720億,在激活160億參數(shù)量的情況下,通過動態(tài)激活專家網(wǎng)絡的創(chuàng)新設計,實現(xiàn)了以小打大的優(yōu)異性能,甚至可以媲美千億級模型的性能表現(xiàn)。華為聲稱,該模型針對昇騰300I Duo、800I A2平臺進行優(yōu)化,在后者上可以實現(xiàn)單卡1148 token/s的推理速度。

在業(yè)界權(quán)威大模型榜單SuperCLUE中文大模型基準測評5月的數(shù)據(jù),盤古72B在開源排行榜中位列第五,總分為58.75分,超越Qwen3-14B、Qwen3-8B,僅次于DeepSeek-R1滿血版、DeepSeek-V3滿血版以及Qwen3-32B和235B。

值得一提的是,盤古72B的文本理解與創(chuàng)作得分位居榜單之首,為80.48分,但在科學推理能力上僅有39.6分,明顯弱于位居榜單前列的其余模型。

華為專家曾表示,“盤古72B是兼顧性能與推理成本的黃金尺寸,最適合行業(yè)用戶用AI改造業(yè)務?!?/p>

除了前述兩款模型,華為近期還推出了參數(shù)規(guī)模達7180億新模型——盤古Ultra MoE,全流程在昇騰AI計算平臺上訓練。華為同時發(fā)布盤古Ultra MoE模型架構(gòu)和訓練方法的技術(shù)報告,披露眾多技術(shù)細節(jié)。

據(jù)華為技術(shù)專家介紹,華為盤古718B Ultra MoE萬卡集群預訓練MFU(模型算力利用率)達到41%,實驗室已達到45%;CloudMatrix384超節(jié)點訓練MoE大模型,MFU超過50%。

值得一提的是,近期在華為開發(fā)者大會(HDC 2025)上,華為云還發(fā)布了盤古大模型5.5,對自然語言處理(NLP)、計算機視覺(CV)、多模態(tài)、預測、科學計算五大基礎(chǔ)模型進行升級。同時,基于CloudMatrix 384超節(jié)點的新一代昇騰AI云服務全面上線。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。