《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 阿里通義千問(wèn)開(kāi)源Qwen2.5-Coder全系列模型

阿里通義千問(wèn)開(kāi)源Qwen2.5-Coder全系列模型

號(hào)稱(chēng)代碼能力追平GPT-4o
2024-11-13
來(lái)源:IT之家

11 月 12 日消息,阿里通義千問(wèn)今日開(kāi)源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成為目前 SOTA 的開(kāi)源代碼模型,官方號(hào)稱(chēng)代碼能力追平 GPT-4o。

0.png

Qwen2.5-Coder-32B-Instruct 作為本次開(kāi)源的旗艦?zāi)P?,在多個(gè)流行的代碼生成基準(zhǔn)(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了開(kāi)源模型中的最佳表現(xiàn),官方稱(chēng)達(dá)到和 GPT-4o 有競(jìng)爭(zhēng)力的表現(xiàn)。

0.png

阿里通義千問(wèn)此前開(kāi)源了 1.5B、7B 兩個(gè)尺寸,本次開(kāi)源帶來(lái) 0.5B、3B、14B、32B 四個(gè)尺寸,覆蓋了主流的六個(gè)模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 許可證,3B 模型使用 Research Only 許可。

0.png


Magazine.Subscription.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話(huà):010-82306118;郵箱:aet@chinaaet.com。