《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 俄羅斯科技巨頭Yandex宣布開源YaFSDP大語言模型訓(xùn)練工具

俄羅斯科技巨頭Yandex宣布開源YaFSDP大語言模型訓(xùn)練工具

大幅提升 GPU 利用率,對 Llama 3 可實(shí)現(xiàn) 26% 加速
2024-06-12
來源:IT之家
關(guān)鍵詞: Yandex YaFSDP 大語言模型

6 月 11 日消息,俄羅斯科技巨頭 Yandex 推出了一款開源的大語言模型訓(xùn)練工具 ——YaFSDP,號稱與現(xiàn)有工具相比速度最高可提升 26%。

0.png

據(jù)介紹,YaFSDP 在訓(xùn)練速度方面優(yōu)于傳統(tǒng)的 FSDP 方法,尤其適用于大型模型。在預(yù)訓(xùn)練 LLM 方面,YaFSDP 速度提高了 20%,并且在高內(nèi)存壓力條件下表現(xiàn)更佳。

例如,YaFSDP 對具有 700 億參數(shù)的 Llama 2 可以實(shí)現(xiàn) 21% 的效率提升,對具有同級參數(shù)的 Llama 3 也實(shí)現(xiàn) 了 26% 的效率提升。IT之家附官方數(shù)據(jù)一覽:

0.png

Yandex 表示,通過優(yōu)化 GPU 使用率,YaFSDP 可以為開發(fā)者和公司節(jié)省大量資金 —— 每月可能節(jié)省數(shù)十萬美元。

Yandex 的資深開發(fā)人員、YaFSDP 團(tuán)隊(duì)成員之一 Mikhail Khruschev 還提到,“目前,我們正在積極嘗試各種模型架構(gòu)和參數(shù)大小,以擴(kuò)展 YaFSDP 的通用性” 。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。