《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 25位頂尖科學(xué)家《科學(xué)》發(fā)文呼吁在AI快速發(fā)展中需管控極端風(fēng)險(xiǎn)

25位頂尖科學(xué)家《科學(xué)》發(fā)文呼吁在AI快速發(fā)展中需管控極端風(fēng)險(xiǎn)

2024-05-23
來(lái)源:快科技

面對(duì)可能迅速發(fā)展的人工智能,全球的風(fēng)險(xiǎn)應(yīng)對(duì)能力似乎并未步入正軌。

在韓國(guó)首爾舉行的第二屆人工智能安全峰會(huì)(5月21日至22日)開(kāi)展之際,25位世界領(lǐng)先的人工智能科學(xué)家在《科學(xué)》雜志上共同發(fā)表了一篇專(zhuān)家共識(shí)論文,他們認(rèn)為,當(dāng)今全球在保護(hù)人類(lèi)免受技術(shù)滋生的風(fēng)險(xiǎn)方面做得還不夠。

1.jpg

在論文中,他們概述了全球領(lǐng)導(dǎo)人應(yīng)該采取的緊急政策優(yōu)先事項(xiàng),以應(yīng)對(duì)人工智能技術(shù)的威脅。

重要建議

該論文的合著者包括Geoffrey Hinton, Andrew Yao, Dawn Song,Daniel Kahneman等25位世界領(lǐng)先的人工智能及其治理學(xué)術(shù)專(zhuān)家。這些作者來(lái)自美國(guó)、中國(guó)、歐盟、英國(guó)和其他人工智能大國(guó),其中還包括圖靈獎(jiǎng)得主、諾貝爾獎(jiǎng)獲得者和標(biāo)準(zhǔn)人工智能教科書(shū)的作者。

這些科學(xué)家指出,世界各國(guó)領(lǐng)導(dǎo)人必須認(rèn)真對(duì)待在當(dāng)前十年或未來(lái)十年開(kāi)發(fā)出強(qiáng)大的通用人工智能(AGI)系統(tǒng)的可能性,這種系統(tǒng)有可能在許多關(guān)鍵領(lǐng)域的表現(xiàn)都超越了人類(lèi)。

他們還稱(chēng),盡管世界各國(guó)政府一直在討論前沿人工智能,并在引入初步指導(dǎo)方針?lè)矫孀龀隽艘恍﹪L試,但這與許多專(zhuān)家預(yù)期的快速、變革性進(jìn)展的可能性根本不相稱(chēng)。

該論文的合著者、牛津大學(xué)工程科學(xué)系的Philip Torr教授稱(chēng),“在上次人工智能峰會(huì)上,全世界都贊成需要采取行動(dòng),但現(xiàn)在是時(shí)候從模糊的建議變成具體的承諾了?!?/p>

這篇論文為公司和政府應(yīng)該承諾做什么提供了一些重要建議,包括:

建立能迅速對(duì)風(fēng)險(xiǎn)作出反應(yīng)的專(zhuān)家機(jī)構(gòu)來(lái)監(jiān)督人工智能,并為這些機(jī)構(gòu)提供更多的資金。

要求更嚴(yán)格的風(fēng)險(xiǎn)評(píng)估,并具有可執(zhí)行的結(jié)果,而不是依賴(lài)于自愿的或未明確的模型評(píng)估。

要求人工智能公司優(yōu)先考慮安全,并證明他們的系統(tǒng)不會(huì)造成傷害,人工智能開(kāi)發(fā)人員應(yīng)考慮安全性。

實(shí)施與人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn)水平相符的風(fēng)險(xiǎn)緩釋標(biāo)準(zhǔn)。應(yīng)設(shè)置適當(dāng)?shù)牟呗?,?dāng)人工智能達(dá)到某些能力里程碑時(shí)自動(dòng)觸發(fā)嚴(yán)格的要求;但如果人工智能進(jìn)展緩慢,要求會(huì)相應(yīng)放寬。

值得一提的是,當(dāng)?shù)貢r(shí)間周二(5月21日)在首爾人工智能峰會(huì)上,微軟、亞馬遜、OpenAI等科技巨頭就人工智能安全達(dá)成了一項(xiàng)具有里程碑意義的國(guó)際協(xié)議。

這項(xiàng)協(xié)議下,許多企業(yè)做出承諾,包括發(fā)布安全框架,列出衡量潛在風(fēng)險(xiǎn);一旦發(fā)現(xiàn)了這種極端情況,如果不能保證降低風(fēng)險(xiǎn),企業(yè)們就需要打開(kāi)“緊急停止開(kāi)關(guān)”,叫停AI模型的開(kāi)發(fā)進(jìn)程。

政府監(jiān)管帶頭

根據(jù)作者的說(shuō)法,對(duì)于未來(lái)異常強(qiáng)大的人工智能系統(tǒng),政府必須準(zhǔn)備好在監(jiān)管方面發(fā)揮帶頭作用。這包括:許可這些系統(tǒng)的開(kāi)發(fā),限制其在關(guān)鍵社會(huì)角色中的自主權(quán),停止其開(kāi)發(fā)和部署以應(yīng)對(duì)令人擔(dān)憂(yōu)的功能,強(qiáng)制訪問(wèn)控制,以及要求對(duì)國(guó)家級(jí)黑客采取強(qiáng)有力的信息安全措施。

加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、世界標(biāo)準(zhǔn)人工智能教科書(shū)的作者斯圖爾特·羅素Stuart Russell OBE表示,“這是一份由頂尖專(zhuān)家達(dá)成共識(shí)的論文,它呼吁政府嚴(yán)格監(jiān)管,而不是由行業(yè)制定自愿的行為準(zhǔn)則。”

他補(bǔ)充道,“是時(shí)候認(rèn)真對(duì)待先進(jìn)的人工智能系統(tǒng)了。這些不是玩具。如果說(shuō)‘監(jiān)管扼殺了創(chuàng)新’,那太荒唐了,因?yàn)閷?duì)那些普通三明治店的監(jiān)管甚至比對(duì)人工智能公司的監(jiān)管還多。”


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。