3月6日消息,阿里Qwen團(tuán)隊(duì)正式發(fā)布他們最新的研究成果——QwQ-32B大語(yǔ)言模型。
這是一款擁有320億參數(shù)的模型,其性能可與具備6710億參數(shù)(其中370億被激活)的DeepSeek-R1媲美。
QwQ-32B在僅有DeepSeek-R1約1/21參數(shù)量的情況下,用強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)了性能上的跨越。
此外,阿里還在推理模型中集成了與Agent相關(guān)的能力,使其能夠在使用工具的同時(shí)進(jìn)行批判性思考,并根據(jù)環(huán)境反饋調(diào)整推理過(guò)程。
QwQ-32B 在一系列基準(zhǔn)測(cè)試中進(jìn)行了評(píng)估,測(cè)試了數(shù)學(xué)推理、編程能力和通用能力。
其中,在測(cè)試數(shù)學(xué)能力的AIME24評(píng)測(cè)集上,以及評(píng)估代碼能力的LiveCodeBench中,千問(wèn)QwQ-32B表現(xiàn)與DeepSeek-R1相當(dāng),遠(yuǎn)勝于o1-mini及相同尺寸的R1 蒸餾模型。
同時(shí),在由Meta首席科學(xué)家楊立昆領(lǐng)銜的“最難LLMs評(píng)測(cè)榜”LiveBench、谷歌等提出的指令遵循能力IFEval評(píng)測(cè)集、由加州大學(xué)伯克利分校等提出的評(píng)估準(zhǔn)確調(diào)用函數(shù)或工具方面的BFCL測(cè)試中,千問(wèn)QwQ-32B的得分均超越了DeepSeek- R1。
目前,QwQ-32B已在Hugging Face和ModelScope開(kāi)源,大家也可通過(guò)Qwen Chat直接進(jìn)行體驗(yàn)!