《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 聯(lián)發(fā)科推出生成式AI服務(wù)平臺(tái)達(dá)哥

聯(lián)發(fā)科推出生成式AI服務(wù)平臺(tái)達(dá)哥

支持“最強(qiáng)繁體中文大模型”MR BreeXe
2024-04-09
來(lái)源:IT之家

4 月 9 日消息,據(jù)聯(lián)發(fā)科官方消息,在今日舉行的生成式 AI 論壇期間,聯(lián)發(fā)科生成式 AI 服務(wù)平臺(tái) MediaTek DaVinci 正式推出,亦稱“聯(lián)發(fā)科技達(dá)哥”,目前已有超過(guò) 40 家廠商加入其生態(tài)系統(tǒng)。

98e8ea40-9e69-495b-944a-72a0819d0ddc.png

據(jù)悉,該工具最初為集團(tuán)內(nèi)部生成式 AI 工具,被廣泛應(yīng)用于軟件開(kāi)發(fā)的需求分析和規(guī)格設(shè)計(jì)、人資的自動(dòng)媒合、財(cái)務(wù)的報(bào)銷流程、法務(wù)的專利翻譯和合約訴訟等,集團(tuán)滲透率達(dá)到 96%。

同時(shí),聯(lián)發(fā)創(chuàng)新基地還發(fā)布了該平臺(tái)最新的繁體中文大型語(yǔ)言模型 MediaTek Research BreeXe(簡(jiǎn)稱 MR BreeXe)。 MR BreeXe 以 Mixtral 8x7B 模型為基礎(chǔ)開(kāi)發(fā),繼承 Mixtral 多專家模型特有的節(jié)省運(yùn)算資源、提升速度優(yōu)勢(shì),號(hào)稱在繁體中文測(cè)試項(xiàng)目(TMMLU+、MT Bench TW)超越 GPT-3.5,并對(duì)臺(tái)灣地區(qū)常見(jiàn)的地端應(yīng)用進(jìn)行了“特別優(yōu)化”。

據(jù)聯(lián)發(fā)創(chuàng)新基地負(fù)責(zé)人許大山介紹,MR BreeXe 繁體中文大型語(yǔ)言模型提供優(yōu)異語(yǔ)文理解能力和云、地兩端的彈性,為現(xiàn)今繁體中文能力最強(qiáng)的語(yǔ)言模型,與“達(dá)哥”配合相信能夠更貼近本地化的需求,激發(fā)更多本土生成式 AI 應(yīng)用。

去年 4 月,聯(lián)發(fā)科曾發(fā)布繁體中文 AI 大型語(yǔ)言模型 BLOOM-zh,號(hào)稱在大多數(shù)繁體中文基準(zhǔn)測(cè)試中優(yōu)于其前身,同時(shí)保持其英語(yǔ)能力。


雜志訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。