《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 三年后AI大模型訓練成本或達1000億美元

三年后AI大模型訓練成本或達1000億美元

2024-07-09
來源:芯智訊
關(guān)鍵詞: AI大模型 AI訓練

0.jpg

據(jù)Tom’s Hardware報道,AI新創(chuàng)公司Anthropic CEO Dario Amodei近日在Podcast節(jié)目《In Good Company》中表示,雖然AI大模型的參數(shù)持續(xù)增長,三年后的AI模型的訓練成本可能將高達1000億美元。

Amodei表示,OpenAI的ChatGPT-4等AI模型,大約只需要花費1億美元即可訓練完成。而當前正在開發(fā)中的更大參數(shù)的大模型,可能最多需要花費10億美元來進行訓練,預計未來三年,更大的模型的訓練成本會快速膨脹至100億美元,甚至是1,000億美元。

對于AI大模型的訓練來說,AI芯片是最大的成本。早在2023年,市場就傳聞ChatGPT需要超過30,000顆英偉達的AI GPU來支撐,而OpenAI CEO阿爾特曼(Sam Altman)也確認,ChatGPT-4的訓練成本為1億美元。

除了OpenAI之外,谷歌、Meta、IBM、特斯拉、阿里巴巴、百度、騰訊、字節(jié)跳動等眾多的科技大廠都有在開發(fā)自己的AI大模型。由此也帶來了對于高性能AI芯片的龐大需求。根據(jù)TechInsights的數(shù)據(jù),2023年全球數(shù)據(jù)中心GPU總出貨量達到了385萬顆,其中英偉達一家就出貨了376萬顆。而英偉達出貨的H100加速卡的售價超過2.5萬美元。而英偉達的新一代AI GPU B200每顆售價至少30,000~40,000美元左右。

如果按照每年新的大模型的能力都能夠提升10倍,那么所需的硬件基礎(chǔ)設(shè)施的性能可能也需要增強10倍,雖然所需的AI芯片數(shù)量可能不會增加10倍(每年新一代的AI芯片的性能都會提升),但是考慮到尖端制程芯片的成本越來越高,所需要花費的硬件基礎(chǔ)設(shè)施的成本可能會增加10倍。如此看來,三年后,更強大的AI大模型的訓練成本確實有可能會達到1000億美元。

Amodei相信,隨著算法、芯片的持續(xù)進步,2027年之時,AI模型執(zhí)行任務(wù)的表現(xiàn),有相當高的機率會比多數(shù)人類還要好,即實現(xiàn)通用人工智能(AGI)。

當然,這可能需要1000億美元的訓練成本,而這么大規(guī)模的資金投入只有極少數(shù)的廠商能夠負擔的起。但即便是投入如此大規(guī)模的資金,短期所能夠帶來的營收可能也非常有限。

Sequoia Capital分析師David Cahn表示,目前AI大模型的龍頭廠商OpenAI的營收正在快速增長,其2024年的營收有望從2023年底的16億美元上升至34億美元,遠遠超越其他營收還無法達到1億美元的廠商。這與未來需要100億美元甚至1000億美元的硬件基礎(chǔ)設(shè)施的AI大模型訓練成本相比,這點來自AI的收入可謂是杯水車薪。

David Cahn相信,業(yè)界不能期待AI投資能快速帶來回報,同時還需意識到當前投資計劃的投機本質(zhì),并持續(xù)創(chuàng)新、創(chuàng)造價值。若不這么做,則這個價值數(shù)千億美元的泡沫勢將破裂,甚至可能引發(fā)全球經(jīng)濟危機。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。