7月10日消息,根據(jù)SuperCLUE發(fā)布的中文大模型基準(zhǔn)測(cè)評(píng)最新報(bào)告,阿里通義千問(wèn)開(kāi)源模型Qwen2-72B-Instruct以卓越的表現(xiàn)位居國(guó)內(nèi)通用能力第一,更在全球范圍內(nèi)成為最強(qiáng)開(kāi)源模型。
SuperCLUE報(bào)告詳細(xì)披露了對(duì)國(guó)內(nèi)外33個(gè)大模型的綜合測(cè)評(píng)結(jié)果,Qwen2-72B在一級(jí)總分上以77分的高分與Claude-3.5-Sonnet并列第二,僅次于OpenAI的GPT-4o。
這一得分超越了百度文心一言4.0、訊飛星火V4.0、Llama-3-70B等開(kāi)閉源大模型。
具體來(lái)看,在理科、文科和Hard三個(gè)維度的具體測(cè)評(píng)中,Qwen2-72B展現(xiàn)了全面而均衡的能力。
特別是在理科任務(wù)上,Qwen2-72B與GPT-4o的分差僅為5分,顯示出其在計(jì)算、邏輯推理和代碼測(cè)評(píng)方面的強(qiáng)勁實(shí)力。
在文科任務(wù)和Hard任務(wù)上,Qwen2-72B同樣表現(xiàn)不俗,得分均達(dá)到了76分,與GPT-4o的得分相差無(wú)幾。
特別值得一提的是,在端側(cè)小模型測(cè)評(píng)中,Qwen2-7B以70億參數(shù)的模型規(guī)模,超越了上一代320億參數(shù)的Qwen1.5-32B和130億參數(shù)的Llama-3-8B-Instruct,奪得了排名第一的寶座。
這一成績(jī)不僅證明了Qwen2-7B在小尺寸模型中的極致性能,也極大提升了端側(cè)小模型落地的可行性。
數(shù)據(jù)顯示,截至目前Qwen系列模型的下載量已突破2000萬(wàn)次,其應(yīng)用場(chǎng)景覆蓋了工業(yè)、金融、醫(yī)療、汽車(chē)等多個(gè)垂直領(lǐng)域。