7月7日,特斯拉電動(dòng)汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)可能是人工智能技術(shù)快速發(fā)展的幕后推動(dòng)力量之一,但他同時(shí)也是這種技術(shù)最直言不諱的批評(píng)者。馬斯克曾將研發(fā)人工智能比作“召喚惡魔”,宣稱智能機(jī)器將來(lái)可能會(huì)滅絕人類。
現(xiàn)在,馬斯克正資助37個(gè)研究項(xiàng)目,它們的目標(biāo)就是確保人類將來(lái)能夠繼續(xù)控制人工智能系統(tǒng)。馬斯克通過總部位于波士頓的非營(yíng)利組織“未來(lái)生命研究所”(FLI)資助諸多項(xiàng)目,這個(gè)組織致力于降低人類生存風(fēng)險(xiǎn)、確保人工智能的開發(fā)對(duì)人類有益。
馬斯克曾說(shuō)過:“所有領(lǐng)先的人工智能專家都認(rèn)為,人工智能的安全性非常重要。我同意他們的看法,為此我今天出資1000萬(wàn)美元支持那些確保人工智能能讓人類受益的研究?!薄拔磥?lái)生命研究所”從300多個(gè)申請(qǐng)項(xiàng)目中選出資助目標(biāo),包括:
1.美國(guó)加州大學(xué)伯克利分校和牛津大學(xué)的科學(xué)家計(jì)劃研發(fā)一種能夠了解人類喜好的機(jī)器,這可以幫助人工智能系統(tǒng)的行為更加像人,減少它們的機(jī)器理性;
2.杜克大學(xué)的研究團(tuán)隊(duì)計(jì)劃利用計(jì)算機(jī)學(xué)、哲學(xué)和心理學(xué)建立機(jī)器人,它們可以在現(xiàn)實(shí)條件下做出道德判斷和決策;
3.丹佛大學(xué)的科學(xué)家希望找到一種方式,可以確保人類不會(huì)對(duì)機(jī)器人武器失控;
4.斯坦福大學(xué)的研究團(tuán)隊(duì)正尋求機(jī)器人接管人類工作時(shí)的應(yīng)對(duì)方案,這種假設(shè)很可能導(dǎo)致人類大量失業(yè);
5.斯坦福大學(xué)另一個(gè)團(tuán)隊(duì)致力于解決當(dāng)前人工智能程序的局限性,這些人工智能程序在現(xiàn)實(shí)世界中的表現(xiàn)與測(cè)試環(huán)境下完全不同;
6.牛津大學(xué)計(jì)劃為人工智能編寫道德規(guī)范,幫助決定哪類研究應(yīng)該獲得資助;
7.牛津大學(xué)哲學(xué)家、《超級(jí)智能:方法、危險(xiǎn)、戰(zhàn)略》(Superintelligence: Paths, Dangers, Strategies) 一書作者尼克·博斯特羅姆(Nick Bostrom)想要?jiǎng)?chuàng)建牛津-劍橋研究中心,制定政府、行業(yè)領(lǐng)袖以及其他人都要強(qiáng)制遵守的政策,以此降低人工智能帶來(lái)的長(zhǎng)期危險(xiǎn)。
8.機(jī)器智能研究所的研究團(tuán)隊(duì)計(jì)劃建立強(qiáng)大人工智能的玩具模型,觀察它們的行為方式,就像早期火箭先驅(qū)們建造玩具火箭,在建造真正火箭前對(duì)其進(jìn)行測(cè)試一樣。
“未來(lái)生命研究所”計(jì)劃資助這些團(tuán)隊(duì)研究最長(zhǎng)3年時(shí)間,大部分研究項(xiàng)目將從2015年9月份開始。馬斯克剩余的資金將被用于資助其他更有前途的項(xiàng)目。
今年年初,馬斯克與許多科學(xué)家和企業(yè)家簽署公開信,承諾確保人工智能研究應(yīng)確保人類受益。公開信中警告稱,如果無(wú)法確保智能機(jī)器安全,人類未來(lái)將陷入黑 暗,科學(xué)家們應(yīng)尋求阻止人類被抹除的危險(xiǎn)發(fā)生。比如,從短期來(lái)看,人工智能可能導(dǎo)致數(shù)以百萬(wàn)計(jì)的人失業(yè)。而從長(zhǎng)期來(lái)看,智能機(jī)器可能擁有超過人類的智力, 開始重寫自己的程序。
馬斯克去年10月份曾在麻省理工學(xué)院發(fā)表演講,他稱人工智能是我們“最大的生存威脅”。他說(shuō):“我們應(yīng)該對(duì)人工智能保持警惕。如果讓我猜人類面對(duì)的最大生存威脅,我認(rèn)為可能就是人工智能?!?/p>