《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 阿里通義千問(wèn)登頂國(guó)內(nèi)第一開(kāi)源模型

阿里通義千問(wèn)登頂國(guó)內(nèi)第一開(kāi)源模型

2024-07-11
來(lái)源:快科技

7月10日消息,根據(jù)SuperCLUE發(fā)布的中文大模型基準(zhǔn)測(cè)評(píng)最新報(bào)告,阿里通義千問(wèn)開(kāi)源模型Qwen2-72B-Instruct以卓越的表現(xiàn)位居國(guó)內(nèi)通用能力第一,更在全球范圍內(nèi)成為最強(qiáng)開(kāi)源模型。

SuperCLUE報(bào)告詳細(xì)披露了對(duì)國(guó)內(nèi)外33個(gè)大模型的綜合測(cè)評(píng)結(jié)果,Qwen2-72B在一級(jí)總分上以77分的高分與Claude-3.5-Sonnet并列第二,僅次于OpenAI的GPT-4o。

這一得分超越了百度文心一言4.0、訊飛星火V4.0、Llama-3-70B等開(kāi)閉源大模型。

1.png

具體來(lái)看,在理科、文科和Hard三個(gè)維度的具體測(cè)評(píng)中,Qwen2-72B展現(xiàn)了全面而均衡的能力。

特別是在理科任務(wù)上,Qwen2-72B與GPT-4o的分差僅為5分,顯示出其在計(jì)算、邏輯推理和代碼測(cè)評(píng)方面的強(qiáng)勁實(shí)力。

2.png

在文科任務(wù)和Hard任務(wù)上,Qwen2-72B同樣表現(xiàn)不俗,得分均達(dá)到了76分,與GPT-4o的得分相差無(wú)幾。

特別值得一提的是,在端側(cè)小模型測(cè)評(píng)中,Qwen2-7B以70億參數(shù)的模型規(guī)模,超越了上一代320億參數(shù)的Qwen1.5-32B和130億參數(shù)的Llama-3-8B-Instruct,奪得了排名第一的寶座。

3.png

這一成績(jī)不僅證明了Qwen2-7B在小尺寸模型中的極致性能,也極大提升了端側(cè)小模型落地的可行性。

數(shù)據(jù)顯示,截至目前Qwen系列模型的下載量已突破2000萬(wàn)次,其應(yīng)用場(chǎng)景覆蓋了工業(yè)、金融、醫(yī)療、汽車(chē)等多個(gè)垂直領(lǐng)域。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話(huà):010-82306118;郵箱:aet@chinaaet.com。