很難想象,達到人類等級的人工智能會如何造福人類,同樣也難以想象不恰當?shù)厥褂盟?,會釀成什么樣的惡果?/p>
AI有做壞事的本領,在空戰(zhàn)模擬器上,阿爾法人工智能程序在與美國空軍退休上校吉恩 李的較量中,獲得完勝。此類例子已經(jīng)不勝枚舉。
所以,如何使用機器人是個大問題。即便你為機器人設定了一個目的純良的任務,但機器人在實現(xiàn)目標的過程中,如何選擇實現(xiàn)路徑仍然是個問題,它會不會為達目的而不擇手段呢?
因此,為考驗AI在兩難境地下如何做出策略選擇,谷歌的 DeepMind 團隊進行了針對性實驗,實驗中的兩款游戲都是以博弈論的囚徒困境理論為基礎開發(fā)的。
囚徒困境是指兩個共謀犯罪的人被關入監(jiān)獄,不能互相溝通。如果兩個人都不揭發(fā)對方,則由于證據(jù)不確定,每個人坐牢一年;若一人揭發(fā),而另一人沉默,揭發(fā)者立即獲釋,沉默者入獄五年;若互相揭發(fā),則因證據(jù)確實,二人都判刑兩年。由于囚徒無法信任對方,因此傾向于互相揭發(fā),而不是同守沉默。這一經(jīng)典理論說明了即便合作對雙方都有利,但合作仍然是困難的。
DeepMind為此設計的第一款游戲名為“采集”。他們將一個以“收集水果”為目的的電腦游戲運行了4000萬次,并要求兩個AI互相競爭,看誰能收集更多的虛擬蘋果。
他們發(fā)現(xiàn),在有足夠的蘋果時AI還相安無事,但隨著蘋果減少,兩個AI就有攻擊性了。為了將對手踢出游戲,獨吞所有蘋果,它們開始使用激光束來攻擊對手。
有趣的是,AI用激光束攻擊對手獲得成功的行為并不能直接獲得獎勵。它只是讓對手在游戲中消失一會兒,以便自己可以收集更多的蘋果。
如果兩方AI都不使用激光束,理論上他們可以平分所有的蘋果。這是“沒那么聰明”的舊版本AI所作的選擇。
隨著谷歌團隊測試形式的愈加復雜,DeepMind也變得更貪婪、更具侵略性和攻擊性。
“在蘋果相對豐富的環(huán)境中,彼此攻擊的代價更大,因此AI會采用更溫和的策略。在蘋果較少時,AI擊敗對手獨吞蘋果的貪婪欲望就出現(xiàn)了?!?/p>
第二個游戲叫作“狼群”。這一次,有三個人工智能參與——它們中的兩個扮演狼,另一個扮演獵物。
和前一個游戲不同的是,這個游戲鼓勵合作。如果獵物被捕獲時,兩只狼在都在獵物旁邊,他們都會得到獎勵——不論哪一只抓獲了獵物。
“這是捕獵有風險性的觀點——一只獨狼可以戰(zhàn)勝獵物,但可能會因食腐動物的搶奪而丟掉這份戰(zhàn)利品”,該團隊在他們博客的文章中解釋道。
“然而,當兩只狼一同捕獵時,它們可以更好地對抗食腐動物,保護手中保護獵物,因此得到更高的回報?!?/p>
因此,在第一個游戲中,AI認識到侵略和自私可以獲得最有利自己的結(jié)果;從“狼群”游戲中,它們也學習到,有時合作會對自己更有利。
通過以上實驗,也讓我們得出一個結(jié)論:AI 會根據(jù)自己所處的環(huán)境進行抉擇。
“在現(xiàn)實生活中,無論是合作還是相互攻訐,都是復雜的行為。因此 AI 需要掌握執(zhí)行一系列動作的先后順序?!盌eepMind 團隊在博客中寫道?!拔覀儗⑦@一全新設定看作連續(xù)的社會困境,并利用深層強化學習訓練的AI對其進行研究?!?/p>
我們應考慮到,雖然這些只是簡單的、信息明確的電腦游戲,但在現(xiàn)實情況下,這些職責不同、利益沖突、相互競爭的人工智能系統(tǒng),如果不能將各自的目標統(tǒng)合于人類利益高于一切的最高目標之下,后果將是災難性的。
設想一下,交通信號燈的目的是讓汽車減下速來,無人駕駛汽車的目標是找到速度最快的路線。但在二者合力下,想要保證安全和有效的交通,它們需要考慮彼此的目的才行。
DeepMind 的研究團隊表示:“這樣的模型能夠讓我們在模擬系統(tǒng)中測試策略和干預措施?!比绻磺许樌?,未來人類對復雜的、多因素系統(tǒng),如經(jīng)濟、交通或生態(tài)都能有深刻的把握。