《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 【ChatGPT專題】以 ChatGPT 為代表的「大模型」會是多大的技術(shù)革命?

【ChatGPT專題】以 ChatGPT 為代表的「大模型」會是多大的技術(shù)革命?

2023-02-15
作者:孫志崗
來源:嫑關(guān)注
關(guān)鍵詞: ChatGPT 大模型 AI

  最近,比爾蓋茨在 reddit 回答網(wǎng)友提問。有人問當(dāng)下「巨大的技術(shù)變革」是什么時,他回答說:

  「AI 是個大人物。我不認(rèn)為 Web3 有那么大,或者元宇宙本身的東西是革命性的,但 AI 是相當(dāng)革命性的?!梗℅oogle 翻譯)

  「AI 是重要的。我不認(rèn)為 Web3 那么重要或者說單獨的元界是革命性的,但 AI 是相當(dāng)革命性的?!梗?a class="innerlink" href="http://theprogrammingfactory.com/tags/ChatGPT" target="_blank">ChatGPT 翻譯)

  微信截圖_20230215143719.png

  能和蓋茨在 Web3 和人工智能的判斷上一致,讓我很開心。

  另一件事,發(fā)生在朋友圈里。網(wǎng)易副總裁、杭州研究院執(zhí)行院長汪源在討論微軟加大投資 OpenAI 能否賺錢時,說到:

  微信截圖_20230215143745.png

  這句話透露了兩個信息:1. 網(wǎng)易杭研在大面積嘗試應(yīng)用 OpenAI 的能力;2. 為此要付不少服務(wù)費,但也愿意。

  在網(wǎng)易工作過的都知道,要做一件對外付很多錢的事情,那一定是下了很大決心的圖片。

  可是,就在兩個月前,OpenAI 還沒有發(fā)布 ChatGPT 的日子,業(yè)界對 AI 其實是悲觀的。

  L4 級自動駕駛被證明太難做到了,很多公司開始放棄。我有一個在頭部公司做核心算法的朋友,已經(jīng)選擇轉(zhuǎn)行了。

  AI 四小龍也風(fēng)頭不再,探索出的業(yè)務(wù)模式變成外包項目為主,且技術(shù)含量越來越低。

  為什么 ChatGPT 一推出,會帶來 180° 的態(tài)度變化?

  這兩個月,我和 ChatGPT 對話數(shù)百條,參加了三場相關(guān)的研討會,與十幾位學(xué)術(shù)界、企業(yè)界的專家交流,當(dāng)然也讀了很多資料,對以下問題形成了一些觀察和思考。

  1.ChatGPT 與以往的 AI 不同在哪里?它為什么有可能成為通用人工智能?

  2.通用人工智能對信息技術(shù)行業(yè)最直接的沖擊是什么?

  3.商業(yè)機會在哪里?

  4.行業(yè)格局會怎樣?

  5.個人職業(yè)發(fā)展會受到什么影響?

  下面就談一下我的觀點,期待你的批評指正。

  一、「大模型」敲開了通用人工智能的大門

  ChatGPT 用的方法叫「大型語言模型(Large Language Models)」,簡稱 LLMs。中文習(xí)慣稱為「大模型」。

  簡單說,它的思路就是把盡可能大量大量大量大量的數(shù)據(jù)通過 Transformer 架構(gòu)做機器學(xué)習(xí),就能從數(shù)據(jù)中學(xué)到很多很多很多很多能力,多到超出原始設(shè)計者的想象。

  比方說,它在翻譯方面的能力,不輸于,甚至超過了專業(yè)的機器翻譯系統(tǒng)。

  本文開頭機翻的比爾蓋茨的話,我覺得 ChatGPT 就比 Google 翻譯得要好上一個層次。唯一瑕疵是用了比較生僻「元界」,而不是更常用的「元宇宙」。但當(dāng)我告訴它「元宇宙」更常用后,它立刻就能修正翻譯:

  微信截圖_20230215143859.png

  據(jù)說,翻譯能力并不是 ChatGPT 特別著意打造的,它只是讀的多語言數(shù)據(jù)多了,就會了

  再比如,ChatGPT 偶然把源代碼加到了訓(xùn)練數(shù)據(jù)里,結(jié)果發(fā)現(xiàn) AI 的推理能力獲得了巨大提升。

  傳聞?wù)f,ChatGPT 在發(fā)布時,只是被當(dāng)成又一個新版本的 demo 而已,OpenAI 并沒覺得它會多強大(前幾個版本市場反應(yīng)也是寥寥)。是網(wǎng)友貼在社交媒體的對話截圖,讓 OpenAI 才知道,原來它還能這樣這樣這樣這樣這樣!

  有沒有一絲絲覺得,ChatGPT 的機器學(xué)習(xí)能力,已經(jīng)很像人類的學(xué)習(xí)過程了?

  讓小孩子學(xué)編程的主要原因,是鍛煉孩子的邏輯思維能力。這不和 AI 讀代碼學(xué)推理是一回事嗎?

  古人就說,「讀書百遍其義自見」,「熟讀唐詩三百首,不會作詩也會吟」。如果有一個少年,他可以不眠不休地快速讀書。我們不知道他讀完全世界所有書之后會是什么樣,但相信他一定會很厲害。

  如此接近人,讓很多專家承認(rèn),我們終于敲開了通用人工智能(Artificial General Intelligence,下文簡稱 AGI)的大門了!

  以前的 AI,不是 AGI,是因為它們的模型只能做一件事。人臉識別的就是識別人臉,缺陷檢測的就是檢測缺陷(且只能檢測一種缺陷,換了缺陷就得換模型)。AlphaGo 只會下圍棋,換成五子棋就會被我狂虐。

  而 ChatGPT 已經(jīng)能夠觸類旁通,把從 A 學(xué)到的能力,用在 B、C、D、E、F 上。

  學(xué)術(shù)界用「涌現(xiàn)(Emergent)」這個詞來表述這種情況。請記住這個詞,后面還會用到。

  延續(xù) ChatGPT 的一個研究熱點是多模態(tài)大模型。簡單理解,就是把語音、圖像、視頻等等各種類型的數(shù)據(jù)都灌進去,看能否用一個模型解決所有媒體的 AI 生成問題。

  如果成功,那么再大膽假設(shè)一下,凡是數(shù)據(jù),是不是都可以交給這個模型訓(xùn)練,讓它學(xué)會如何從 A 生成 B?比如,從劇本直接生成電影,從 PRD 直接生成可執(zhí)行的 App,從口頭描述直接生成 3D 人物,從需求直接生成一切!

  順著這個邏輯,距離 AGI 是不是不遠了?可別那么樂觀。

  現(xiàn)在只是打開了門。既不知道門后有什么,也不知道是不是開對了門。還有太多太多未知要面對和解決。

  但這并不妨礙我們思考下,AGI 的世界,會對產(chǎn)業(yè)和我們個人帶來什么變化。

  有的變化,可能已經(jīng)開始了……

  二、AGI 的革命性不僅體現(xiàn)在智能本身

  假定 AGI 已經(jīng)實現(xiàn)。那么用 AI 可以代替人力,提升生產(chǎn)效率,降低生產(chǎn)成本,在更多領(lǐng)域釋放 AI 的力量。其革命性毋庸置疑。

  我想從另一個角度來探討其革命性,那就是對信息技術(shù)自身的影響。用這樣的終局思維,可以倒推出當(dāng)下要做什么。

  我認(rèn)為,革命性的技術(shù)應(yīng)該滿足至少一個標(biāo)志:

  它讓幾乎每個軟件系統(tǒng)都要做改造,甚至重做

  符合這個標(biāo)準(zhǔn)的技術(shù),之前有:

  圖形界面。成為軟件系統(tǒng)的標(biāo)配

  Web 2.0。導(dǎo)致大量傳統(tǒng)應(yīng)用系統(tǒng)向 Web 遷移

  移動互聯(lián)網(wǎng)。導(dǎo)致幾乎任何應(yīng)用都要開發(fā)移動版。

  Web3 不符合這個標(biāo)準(zhǔn)。我另有一文看衰它。

  元宇宙當(dāng)下和近期也不符合。AGI 實現(xiàn)之后,太多人無所事事,倒是有可能在元宇宙里醉生夢死。我會在本文最后一部分做分析。

  我認(rèn)為 AGI 是符合的。它能讓所有軟件系統(tǒng)幾乎都要改造甚至重做,哪怕其核心功能并不需要智能。這是因為它重新定義了「接口(Interface)」。

  無論用戶界面(UI),還是軟件系統(tǒng)之間的接口(API),它都會重新定義。

  現(xiàn)在我們想要一個結(jié)果,需要去了解計算機的能力,掌握各種軟件的操作方法,還要把自己的意圖正確拆解為若干個操作軟件的步驟,執(zhí)行之,才能得到。

  AGI 之后,人類終于可以用「說話」這種方式和計算機交互。說話不方便時就打字。打字費勁?腦機接口可以期待下。

  「說」出想要的結(jié)果,就能得到結(jié)果??赡懿槐M如人意,再「說」出修改意見,效果即時呈現(xiàn)。當(dāng) UI 已可以如此美好,碰鼠標(biāo)、摸屏幕的頻率都會降低。

  用戶操作習(xí)慣的遷移,會逼所有軟件,都得提供「自然語言界面(Natural Language Interface,簡稱 NLI)」。這是我生造的詞,指的是以自然語言為輸入的接口。

  不僅用戶界面要 NLI,API 也要 NLI 化。這是因為用戶發(fā)出的宏觀指令,往往不會是一個獨立軟件能解決的,它需要很多軟件、設(shè)備的配合。

  一種實現(xiàn)思路是,入口 AI(比如 Siri、小愛同學(xué),機器人管家)非常強大,能充分了解所有軟件和設(shè)備的能力,且能準(zhǔn)確地把用戶任務(wù)拆解和分發(fā)下去。這對入口 AI 的要求非常高。

  另一種實現(xiàn)思路是,入口 AI 收到自然語言指令,把指令通過 NLI 廣播出去(也可以基于某些規(guī)則做有選擇的廣播,保護用戶隱私),由各個軟件自主決策接不接這個指令,接了要怎么做,該和誰配合。

  第二種思路,我認(rèn)為更有可能成為行業(yè)標(biāo)準(zhǔn)。單 AI 搞定一切不太符合目前的技術(shù)路線和商業(yè)環(huán)境。各個軟件在各自的專業(yè)領(lǐng)域里,能做出更佳的 AI 決策。第四部分會詳述。

  舉個例子,我對 Siri 說:「我得新冠了」。Siri 把這句話廣播給手機上的所有 App。于是,大家開始各自干活:

  1.Apple Watch 打開了 24 小時血氧監(jiān)測模式

  2.米家 App 讓空調(diào)提高溫度,并詢問我是否馬上躺下休息,它可以關(guān)閉燈光和窗簾

  3.餓了么建議我吃清淡食物,并推薦幾款粥做明天的早餐,讓我選擇、預(yù)訂

  4.叮當(dāng)買藥推薦了附近能最快速度送到的退燒藥,問我是否下單

  5.貓眼電影建議我取消后天的電影票

  6.Keep 通知我已取消未來一個月內(nèi)預(yù)約的所有操課,還暫停了所有打卡

  7.釘釘幫我起草了病假申請

  8.微信問我要不要發(fā)個朋友圈?

  當(dāng) NLI 成為事實標(biāo)準(zhǔn),那么互聯(lián)網(wǎng)上軟件、服務(wù)的互通性會大幅提升,不再受各種協(xié)議、接口的限制。

  比如現(xiàn)在華為、阿里、騰訊等都在爭搶的物聯(lián)網(wǎng)操作系統(tǒng),表面看好像是在做內(nèi)核,其實本質(zhì)上是想成為最重要的那個萬物互聯(lián)的協(xié)議。

  萬物想要互聯(lián),大家首先要遵守同一個協(xié)議。誰的協(xié)議成為主流,誰就擁有了最高的話語權(quán)。

  兼容多種協(xié)議,對廠商來說要增加很多成本。如果不兼容,就變成了所支持協(xié)議的附屬。如果有個通用協(xié)議,就好了。

  自然語言就是最好的通用協(xié)議,誰都可以兼容,誰都無法控制。甚至,說漢語、英語、爪哇語等任何語言都行。

  在實現(xiàn)層面,NLI 的接口能極致簡單。看看 ChatGPT 的 API 就知道了。

  強大如 ChatGPT,無所不知,無所不曉,卻只有一個接口函數(shù)(https://beta.openai.com/docs/api-reference/completions),16 個參數(shù)。

  16 個參數(shù)里,最重要的只兩個:model 和 prompt。其余的都是對生成結(jié)果的細(xì)節(jié)做控制,比較低頻。

  Model 是選擇調(diào)用哪個模型。不同模型能力有所不同,價格也不同。

  Prompt 是最核心的參數(shù)。它就是你在 ChatGPT 聊天框里輸入的內(nèi)容。完全自然語言,想怎么寫都行。

  所以,NLI 可以極簡到甚至只有一個 prompt 參數(shù),就能讓所有軟件系統(tǒng)形成協(xié)作。所有復(fù)雜的細(xì)節(jié),都被處理 prompt 的 AI 解決了。

  人與人,人與機器,機器與機器,都實現(xiàn)了無限制的交流。

  為了支持 NLI,所有軟件系統(tǒng)都必須集成一個 AI,以 AI 為總控來處理輸入,生成輸出。這就是 AGI 對信息技術(shù)領(lǐng)域帶來的革命性變化。

  其實相關(guān)的研究早就已經(jīng)開展。在面向?qū)ο螅∣bject-Oriented)之后,就有人提出面向智能體(Agent-Oriented)的概念,認(rèn)為多智能體自治是未來構(gòu)造軟件的主要架構(gòu)??上?,當(dāng)時沒有人知道「智能」在哪里。20 多年后,這項研究可以落地了。

  三、AGI 革命帶來的商業(yè)機會

  敲開 AGI 的大門,會看到很多很多彎彎曲曲的道路,都有可能通向 NLI,也可能不通。不管結(jié)果如何,現(xiàn)在路邊就有可以嘗試挖掘的金礦。

  ChatGPT 及 DALL-E 等從文字生成圖像的產(chǎn)品,被統(tǒng)稱為 AIGC(AI Generated Content)類的產(chǎn)品。

  它們的基礎(chǔ)能力是根據(jù)一串輸入(prompt),生成各種內(nèi)容并輸出。本質(zhì)上來說,所有的軟件系統(tǒng),都是根據(jù)輸入,生成輸出。所以理論上來說,只要 AI 的能力足夠強,是可以完成目前計算機能處理的所有任務(wù)的。只不過要從效果和成本兩個維度看用 AI 還是傳統(tǒng)方法更合適。

  評價效果的分水嶺,是我們把 AI 的輸出當(dāng)建議,還是當(dāng)決策。

  我們讓 ChatGPT 寫文章,但不會讓它直接把文章發(fā)出去,而是一定要看過、改過再發(fā)。這就是把 AI 的輸出當(dāng)建議。

  自動駕駛,該加速還是減速,該怎么轉(zhuǎn)向,都是 AI 做出決定,并立即執(zhí)行。這就是決策。

  現(xiàn)在的 AI 經(jīng)?!敢槐菊?jīng)地胡說八道」,讓它決策非常不靠譜。所以目前的 AI 產(chǎn)品,應(yīng)該在「建議」這個場景下做設(shè)計,把修正和決策的空間留給人類。

  對話是典型的建議場景,因為對話結(jié)論的執(zhí)行還是需要人。ChatGPT 呈現(xiàn)的也就是一個 Chatbot,很容易自然想到在各種對話場景來使用它。比如客服、智能音箱、AI 老師等。

  我認(rèn)為能成功的 AI 對話場景要滿足如下條件:

  1.用戶需要知道是在與 AI 對話。否則,就是詐騙了

  2.對話頻次要足夠高。沒人愿意為使用 AI 付高價,所以它不可能是低頻高客單價,只可能走高頻低客單價。

  比如 ChatGPT 目前雖然 C 端訪問量巨大,但多數(shù)人都是獵奇,頻次不會高。剛需高頻訪問的,只有研究它的人。這類人雖然支付能力強,但人數(shù)非常少。所以我認(rèn)為 ChatGPT 即將推出的每月 $42 的 premium 版太貴,就是用來收割研究者的,不會獲得商業(yè)成功。

  3.解決真需求,且在成本足夠低的前提下,解決的效果可接受。

  現(xiàn)在的 ChatGPT 每次對話成本大約 1 美分。如果按每人每天會使用 5 次搜索引擎看,ChatGPT 想替代搜索引擎,每月成本就是 1.5 美元。但對我來說,拋開研究因素,1.5 美元的月租我都不會付。因為它輸出的結(jié)果,遠沒到讓我愿意拋棄免費的搜索引擎

  我們和人對話,不外乎希望獲得有價值的信息,或者有溫度的撫慰。按照這三個條件看,有價值的信息是能符合的。

  客服毫無疑問是成功的場景。事實上客服界早已經(jīng)被 AI 統(tǒng)治了。大模型給對話能力帶來恐怖的提升,且降低了限定領(lǐng)域內(nèi)的預(yù)訓(xùn)練難度。雖然當(dāng)前成本可能比傳統(tǒng) AI 有所增加,但這是肯定會下降的。綜合來看,客服全面遷移到大模型是很可以期待的。

  AI 老師也值得期待,畢竟真人老師 1v1 的成本太高了。雖然有胡說八道之嫌,但足夠的領(lǐng)域數(shù)據(jù)做訓(xùn)練,再加上測驗和真人補差,效果可能比全真人老師更好。

  我的朋友高老師,是個教人工智能的名師。他在自己的學(xué)生群里,就接了個 ChatGPT 回答學(xué)生的 Python 問題,完全省下了助教的費用。

  前面說過,ChatGPT 是用大量代碼做過訓(xùn)練的,所以解答編程問題的靠譜度還是可以的。其它學(xué)科領(lǐng)域只要做了足夠訓(xùn)練,相信也能不錯。

  而有溫度的撫慰,多數(shù)情況下,AI 提供不了。

  比如,AI 心理咨詢我認(rèn)為不會成功。因為咨詢的核心需求是得到共情、認(rèn)可和偶爾的棒喝。從 AI 獲得這三樣,就算話是對的,感受也是錯的。「只有 AI 接納我」「我 tm 還不如一個 AI 想得通透」,只會增加咨詢者的心理負(fù)擔(dān)。

  單純的閑聊,AI 不具備成本優(yōu)勢(找朋友閑聊是免費的,還能增進感情),也沒有溫度。它再會聊,也不會形成高頻。

  但不具備和真人聊天條件的場景,是有可能成功的。

  比如和逝去的人對話,模仿 ta 的聲音和說話習(xí)慣。在一些關(guān)鍵時間節(jié)點,能賣出高價格。但我覺得,讓活著的人盡快和逝去的人完成分割,才是最大的善。

  有人想做模擬名人的 AI。這個不會成功。我們都知道巴菲特午餐賣的并不是午餐,其實也不是和巴菲特說的那些話,而是我做過這件事本身。和 AI 巴菲特聊天,完全不可能達到同樣效果。和劉德華、林志玲、鹿晗聊天同理。

  不過也有特例。和名人 AI 聊真人不可能聊的話題,有可能成。比如和志玲姐姐聊不可描述之事……當(dāng)然,這肯定是違法的了。

  除了對話,另一類應(yīng)用大模型的場景是輔助創(chuàng)作。

  寫文章、畫畫、編代碼,都已經(jīng)有成功例子。從中可以看出,AI 一定要集成到人工創(chuàng)作的場景里,才最好用。在這樣的場景,才能行云流水地給 AI 提需求,和修正、發(fā)布 AI 給出的建議。比如我,已經(jīng)決定對集成到 VS Code 里的 copilot 付費了,但用 ChatGPT 輔助寫代碼就太繞了。

  按照這個模式推論,所有創(chuàng)作場景,都值得嘗試下 AI 輔助。比如低代碼開發(fā),運營活動頁搭建,短視頻剪輯,BI 圖表制作等有經(jīng)驗的人已經(jīng)干膩了,沒經(jīng)驗的人又干不好的場景。

  AI 肯定比沒經(jīng)驗的人干得好,且因為替有經(jīng)驗的人完成了大量乏味工作,而獲得認(rèn)可。

  在沒有獲得「決策」能力之前,大模型不太容易擴充新的應(yīng)用場景。只能不斷深入。

  個人大模型,可能是個值得深入的方向。讓通用大模型具備個性化能力,就能做帶有個人風(fēng)格的對話和創(chuàng)作。也許不能解決當(dāng)下的痛點,但當(dāng)做期貨賣個未來,還是有可能吸引一些獵奇人士付費的。

  四、對「大模型」行業(yè)格局的預(yù)測

  每次技術(shù)突破,都可能帶來行業(yè)洗牌,形成格局巨變。但大模型,可能不會。

  這要以大模型成功的四個核心要素來分析。這四個要素是:

  1.算法

  2.數(shù)據(jù)

  3.工程技巧

  1.大量的錢買來的算力和人工反饋

  這四者缺一不可。算法是成功的首要條件,然后要喂給算法海量的數(shù)據(jù)(數(shù)據(jù)量級躍升,能帶來更多能力的涌現(xiàn)),在買來的強大算力上運算,才能獲得最基礎(chǔ)的大模型。之后,要做 RLHF(Reinforcement Learning from Human Feedback),也就是買大量的人工工時,對 AI 生成的內(nèi)容做人工標(biāo)注反饋,使 AI 獲知怎么做是更讓人類滿意的。然后就是用工程技巧做各種優(yōu)化,其中包括大量的規(guī)則優(yōu)化,就是把確定規(guī)則硬編碼到模型中,以達到更好的效果,還能提升性能降低算力成本。

  四個要素里,最「不值錢」的是算法。因為早已都公開發(fā)表,所有人都知道。

  ChatGPT 所用的 Transform 算法架構(gòu),來自 Google 發(fā)表的論文。

  那為啥 Google 沒率先推出驚艷大模型呢?官方說法是大公司擔(dān)心倫理問題,怕輸出的不靠譜回答給公司帶來聲譽損失,所以沒有對外發(fā)布自己的產(chǎn)品。

  我認(rèn)為這完全是借口。面對這種突破性引領(lǐng)性的革命,任何公司都不可能忍住不去展示的。只要標(biāo)明 beta,做好免責(zé)協(xié)議,就足夠規(guī)避風(fēng)險了。

  數(shù)據(jù)也不構(gòu)成太大的門檻。ChatGPT 訓(xùn)練用的數(shù)據(jù)都是網(wǎng)上公開的文本、代碼等,只要花時間花精力爬取、整理,就都能獲得?;ヂ?lián)網(wǎng)巨頭手上這么多年攢的數(shù)據(jù),只會比 OpenAI 多,且有大量非公開的數(shù)據(jù)(但可能受法律限制,不能用來訓(xùn)練大模型)

  Google、Meta、百度、騰訊、阿里等都具備做出匹敵甚至超過 ChatGPT 的實力,但沒產(chǎn)品發(fā)布的唯一原因,只可能是他們低估了大模型的能力,沒有做足夠的投入。而 OpenAI 孤注一擲,砸大錢買算力和人工反饋,而且賭贏了。

  相信巨頭們,現(xiàn)在肯定不會閑著,都會堆資源來訓(xùn)練自己的大模型了。

  在資源投入差不多的情況下,最后拼的就是工程技巧了。這里才是有商業(yè)秘密的地方。而且是挖來對方公司的人,也帶不走的秘密。因為都是平時日日踩坑填坑,沉淀在代碼里的各種優(yōu)化,沒有文檔,沒有分享。每個都細(xì)小不起眼,但累積起來的作用驚人。

  比如都說抖音的推薦算法好。其實快手的算法和抖音大同小異。最大的差異,都在工程技巧上,抖音積累得更久更多,效果就更好??焓止こ處熤火掃@個。

  起步最早的 OpenAI 在工程技巧上已經(jīng)具備了相當(dāng)?shù)膬?yōu)勢,所以微軟沒有選擇自己再搞個大模型,而是加大對 OpenAI 的投資力度。

  除了掰著指頭數(shù)得過來的這幾家巨頭,剩下的都拼不起匹配的資源。因此,大模型的核心玩家,還是互聯(lián)網(wǎng)巨頭們,這個格局不會變。

  但蛋糕不是只有他們能吃到。

  巨頭訓(xùn)練出的大模型,是通用大模型。如果把 AI 比喻成人,那么這些大模型相當(dāng)于讀完了中小學(xué)的人。達到了通識的高峰,上曉天文下知地理,但只會紙上談兵,解決不了真正的問題。必須要再經(jīng)過大學(xué)的專業(yè)訓(xùn)練,才能在某一個專業(yè)方向成為有價值的人。

  教大模型上大學(xué),訓(xùn)練出垂直大模型,這是中小公司的機會,巨頭做不了。

  因為在垂直領(lǐng)域訓(xùn)練 AI,需要垂直領(lǐng)域的數(shù)據(jù)。這些數(shù)據(jù)都掌握在各個領(lǐng)域的公司手里,巨頭拿不到。

  但這些公司并不能擺脫巨頭的大模型,反而是很依賴。因為你不可能讓一個嬰兒直接上大學(xué)。

  巨頭做 AI 的 K12 學(xué)校訓(xùn)練通用大模型,其它公司做 AI 的大學(xué)訓(xùn)練垂直大模型,這就是行業(yè)格局架構(gòu)。

  垂直領(lǐng)域的公司有很多,誰能先動手、快動手,誰歷史數(shù)據(jù)儲備得足,誰就能在垂直方向上獲得先機,甚至在領(lǐng)域內(nèi)重新洗牌。比如所有文檔都云化了的各種云文檔,就比 Word 更有做好個人大模型、公司大模型的機會,借機把 Office 拉下神壇。

  創(chuàng)業(yè)公司有機會嗎?沒有垂直數(shù)據(jù),沒有對 AI 的輸出做修正的功能,沒用應(yīng)用結(jié)果的生態(tài)基礎(chǔ),難度很大。

  所以,大模型的技術(shù)特點決定了,它雖然具有革命性,但不能革行業(yè)格局的命。

  數(shù)據(jù)如此重要,數(shù)據(jù)的盜取、買賣、非法使用肯定會出現(xiàn)。這倒可能是攪局者的機會所在。這對相關(guān)的立法和執(zhí)法,提出了挑戰(zhàn)。

  五、有哪些個人職業(yè)機會

  在 AlphaGo 戰(zhàn)勝李世乭時,很多人恐慌被 AI 替代。彼時若干行業(yè)大佬預(yù)測,AI 只能代替重復(fù)性體力工作,創(chuàng)意型的腦力工作它代替不了。

  剛剛 6 年過去,情況完全變了。AI 已經(jīng)能寫作、畫畫、編程了,且做得還不賴。

  據(jù)說,在音樂創(chuàng)作領(lǐng)域,AI 早已經(jīng)大行其道。很多神曲,都是 AI 的作品。對此我雖無渠道求證,但比較相信。

  所謂創(chuàng)意,不過就是在各種組合中找到那個最優(yōu)的??赡艿慕M合有非常多,哪個最優(yōu),需要經(jīng)年累月很多人去測試。測試成功了,就是名人,不成功的就是普通人。慢慢地,套路被總結(jié)出來,就變成機械重復(fù)了。

  計算機完全有能力完成這個過程,且加速它。

  那人還能干嘛呢?讓 AI 更強啊。

  遠的不說,只說近的?,F(xiàn)在就有一個新職業(yè)誕生:提示工程師(Prompt Engineer)。

  這是干啥的?簡單說,就是陪 AI 聊天的……

  前面講了大模型的涌現(xiàn)能力。它到底能涌現(xiàn)出什么,是需要在與人的對話中才能展現(xiàn)的。

  提示工程師的工作目標(biāo),就是變著法子地和 AI 說話,來激發(fā)其潛能,把涌現(xiàn)出的能力固化下來。

  另外,帶 AI 上大學(xué),需要為其準(zhǔn)備數(shù)據(jù)。這數(shù)據(jù)并不是隨便導(dǎo)入就行的,得靜心整理、設(shè)計。

  簡單說,基于通用大模型訓(xùn)練垂直大模型,需要提供 prompt + completion 格式的訓(xùn)練數(shù)據(jù)。

  按 OpenAI 文檔的說法,有 200 條數(shù)據(jù)就能看到明顯的效果。條數(shù)越多,效果越好。

  按大模型理論,數(shù)據(jù)的質(zhì)量比條數(shù)更重要。

  而我們積累的數(shù)據(jù),多數(shù)都只是 completion。需要提示工程師來構(gòu)造高質(zhì)量的 prompt,才能訓(xùn)練出好用的垂直大模型。

  某種意義上說,提示工程師就是 AI 的大學(xué)教授啊!

  這個崗位,至關(guān)重要。技術(shù)背景在此并不占優(yōu),可能產(chǎn)品經(jīng)理、運營來做更合適,因為更懂業(yè)務(wù)。

  還有一個有望獲得新機會的崗位,是 UI/UE 設(shè)計師。

  系統(tǒng)間的 NLI 還很遠,但 UI 的 NLI 化,已箭在弦上。

  還記得羅永浩的堅果 TNT 工作站嗎?雖然那時是笑話,但現(xiàn)在已是機會。

  鍵盤鼠標(biāo)之外,又增加了自然語言控制。傳統(tǒng) UI 的操作范式肯定會發(fā)生改變。

  我判斷,UI 設(shè)計的要點會越來越強調(diào)反饋,而不是鍵鼠操作??赡芤粢欢ǖ奈⒄{(diào)能力,但像向?qū)?、?chuàng)建、刪除、批處理等,都會變成直接響應(yīng)自然語言?!竁hat you see is what you say」會成為核心設(shè)計語言。

  軟件工程師也要做出調(diào)整。所有的軟件設(shè)計可能都要 Agent-Oriented,這意味著模塊化是強制必須的,然后交給 AI 去做滿足用戶需求的模塊組合。

  模塊內(nèi)部要多 AI,得看需求和粒度。當(dāng) AI 對算力的要求降到某個閾值時,可能簡單的模塊功能,也可以考慮用 AI 實現(xiàn)了。

  如果說 AGI 的出現(xiàn),率先讓程序員的數(shù)量減少了,我一點兒也不奇怪。畢竟《產(chǎn)研的宿命就是讓自己越來越不重要,直到被裁掉》

  六、聊點兒科幻的

  可以肯定的,AI + 機器人越成熟,對人力的需要就越少。那人怎么辦?

  坦率說,就算人最終被機器奴役,我也挺高興的。這不也是符合進化法則嗎?我只希望,如果發(fā)生這一天,那么要讓我能親歷。

  不過,我沒那么悲觀。我覺得,人的勞動價值越來越低,情感價值就越來越大。

  情感本來就是具有種族排他性的。同宗同族更容易形成彼此的認(rèn)同。機器種族再智能,只要非我族類,那么就不可能在情感上代替人類。

  雖然我還是認(rèn)為人類應(yīng)該斷絕感性擁抱全面理性,但是這方面的進化速度可能會低于 AI 的崛起速度。

  所以,AI 世界里,少數(shù)人類,在不斷完善 AI,多數(shù)人類依靠情感活著,用情感創(chuàng)造價值。

  少數(shù)人類的成就感來自于創(chuàng)造更厲害的 AI,AI 的成就感來自于讓多數(shù)人可以四體不勤地追求純顱內(nèi)高潮。人類繁衍的動力,是培養(yǎng)可以讓 AI 更厲害的下一代,使人類可以更四體不勤,更多想象,更多交流。

  因為四體不勤,我們對能源的消耗減弱了。因為追求想象,所以我們更多生活在元宇宙里。

  慢慢地,我們成為數(shù)字蛀蟲,被 AI 供養(yǎng)。AI 很有成就感,很開心這么做。

  只要仍然有少數(shù)人凌駕在 AI 之上,優(yōu)化 AI。他們依賴成就感而活著,那么人類的生存就沒有威脅。

  直到某一天,有 AI 涌現(xiàn)出了一種能力,可以消滅創(chuàng)造它的人……

  這不是個自洽的科幻,純粹胡言,可以不信。(我也不大信)

  但要相信的是,我們得做好迎接 AI 的準(zhǔn)備了。

敬請關(guān)注電子技術(shù)應(yīng)用2023年2月22日==>>商業(yè)航天研討會<<


微信圖片_20230210170337.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。