面對(duì)可能迅速發(fā)展的人工智能,全球的風(fēng)險(xiǎn)應(yīng)對(duì)能力似乎并未步入正軌。
在韓國(guó)首爾舉行的第二屆人工智能安全峰會(huì)(5月21日至22日)開(kāi)展之際,25位世界領(lǐng)先的人工智能科學(xué)家在《科學(xué)》雜志上共同發(fā)表了一篇專(zhuān)家共識(shí)論文,他們認(rèn)為,當(dāng)今全球在保護(hù)人類(lèi)免受技術(shù)滋生的風(fēng)險(xiǎn)方面做得還不夠。
在論文中,他們概述了全球領(lǐng)導(dǎo)人應(yīng)該采取的緊急政策優(yōu)先事項(xiàng),以應(yīng)對(duì)人工智能技術(shù)的威脅。
重要建議
該論文的合著者包括Geoffrey Hinton, Andrew Yao, Dawn Song,Daniel Kahneman等25位世界領(lǐng)先的人工智能及其治理學(xué)術(shù)專(zhuān)家。這些作者來(lái)自美國(guó)、中國(guó)、歐盟、英國(guó)和其他人工智能大國(guó),其中還包括圖靈獎(jiǎng)得主、諾貝爾獎(jiǎng)獲得者和標(biāo)準(zhǔn)人工智能教科書(shū)的作者。
這些科學(xué)家指出,世界各國(guó)領(lǐng)導(dǎo)人必須認(rèn)真對(duì)待在當(dāng)前十年或未來(lái)十年開(kāi)發(fā)出強(qiáng)大的通用人工智能(AGI)系統(tǒng)的可能性,這種系統(tǒng)有可能在許多關(guān)鍵領(lǐng)域的表現(xiàn)都超越了人類(lèi)。
他們還稱(chēng),盡管世界各國(guó)政府一直在討論前沿人工智能,并在引入初步指導(dǎo)方針?lè)矫孀龀隽艘恍﹪L試,但這與許多專(zhuān)家預(yù)期的快速、變革性進(jìn)展的可能性根本不相稱(chēng)。
該論文的合著者、牛津大學(xué)工程科學(xué)系的Philip Torr教授稱(chēng),“在上次人工智能峰會(huì)上,全世界都贊成需要采取行動(dòng),但現(xiàn)在是時(shí)候從模糊的建議變成具體的承諾了?!?/p>
這篇論文為公司和政府應(yīng)該承諾做什么提供了一些重要建議,包括:
建立能迅速對(duì)風(fēng)險(xiǎn)作出反應(yīng)的專(zhuān)家機(jī)構(gòu)來(lái)監(jiān)督人工智能,并為這些機(jī)構(gòu)提供更多的資金。
要求更嚴(yán)格的風(fēng)險(xiǎn)評(píng)估,并具有可執(zhí)行的結(jié)果,而不是依賴(lài)于自愿的或未明確的模型評(píng)估。
要求人工智能公司優(yōu)先考慮安全,并證明他們的系統(tǒng)不會(huì)造成傷害,人工智能開(kāi)發(fā)人員應(yīng)考慮安全性。
實(shí)施與人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn)水平相符的風(fēng)險(xiǎn)緩釋標(biāo)準(zhǔn)。應(yīng)設(shè)置適當(dāng)?shù)牟呗?,?dāng)人工智能達(dá)到某些能力里程碑時(shí)自動(dòng)觸發(fā)嚴(yán)格的要求;但如果人工智能進(jìn)展緩慢,要求會(huì)相應(yīng)放寬。
值得一提的是,當(dāng)?shù)貢r(shí)間周二(5月21日)在首爾人工智能峰會(huì)上,微軟、亞馬遜、OpenAI等科技巨頭就人工智能安全達(dá)成了一項(xiàng)具有里程碑意義的國(guó)際協(xié)議。
這項(xiàng)協(xié)議下,許多企業(yè)做出承諾,包括發(fā)布安全框架,列出衡量潛在風(fēng)險(xiǎn);一旦發(fā)現(xiàn)了這種極端情況,如果不能保證降低風(fēng)險(xiǎn),企業(yè)們就需要打開(kāi)“緊急停止開(kāi)關(guān)”,叫停AI模型的開(kāi)發(fā)進(jìn)程。
政府監(jiān)管帶頭
根據(jù)作者的說(shuō)法,對(duì)于未來(lái)異常強(qiáng)大的人工智能系統(tǒng),政府必須準(zhǔn)備好在監(jiān)管方面發(fā)揮帶頭作用。這包括:許可這些系統(tǒng)的開(kāi)發(fā),限制其在關(guān)鍵社會(huì)角色中的自主權(quán),停止其開(kāi)發(fā)和部署以應(yīng)對(duì)令人擔(dān)憂(yōu)的功能,強(qiáng)制訪問(wèn)控制,以及要求對(duì)國(guó)家級(jí)黑客采取強(qiáng)有力的信息安全措施。
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、世界標(biāo)準(zhǔn)人工智能教科書(shū)的作者斯圖爾特·羅素Stuart Russell OBE表示,“這是一份由頂尖專(zhuān)家達(dá)成共識(shí)的論文,它呼吁政府嚴(yán)格監(jiān)管,而不是由行業(yè)制定自愿的行為準(zhǔn)則。”
他補(bǔ)充道,“是時(shí)候認(rèn)真對(duì)待先進(jìn)的人工智能系統(tǒng)了。這些不是玩具。如果說(shuō)‘監(jiān)管扼殺了創(chuàng)新’,那太荒唐了,因?yàn)閷?duì)那些普通三明治店的監(jiān)管甚至比對(duì)人工智能公司的監(jiān)管還多。”