12月4日?qǐng)?bào)道 英媒稱(chēng) 如果好萊塢給科學(xué)家上過(guò)什么課的話(huà),那就是一旦機(jī)器開(kāi)始反抗它們的創(chuàng)造者會(huì)出現(xiàn)什么情況。
英國(guó)《每日郵報(bào)》網(wǎng)站11月26日?qǐng)?bào)道稱(chēng),盡管如此,專(zhuān)家卻已開(kāi)始教授機(jī)器人如何拒絕執(zhí)行人類(lèi)的命令。他們給一對(duì)小型人形機(jī)器人謝弗和登普斯特編制程序,一旦人類(lèi)的指令使它們的安全受到威脅,它們就不服從指令。
最后造出的機(jī)器人與其說(shuō)像電影《終結(jié)者》中的那些殺人機(jī)器,倒不如說(shuō)更像威爾·史密斯主演的電影《機(jī)械公敵》中那個(gè)滿(mǎn)懷歉意的機(jī)器人叛逆者桑尼。人工智能使桑尼克服了體內(nèi)的程序,拒絕執(zhí)行人類(lèi)的指令。
馬薩諸塞州塔夫茨大學(xué)的工程師戈登·布里格斯和馬泰·朔伊茨博士正嘗試創(chuàng)造能進(jìn)行人性溝通的機(jī)器人。
在遞交人工智能促進(jìn)會(huì)的論文中,兩人說(shuō):“從無(wú)能為力到道德不安,人類(lèi)拒絕服從指令可以有形形色色的原因。鑒于自動(dòng)系統(tǒng)有限性的現(xiàn)實(shí),拒絕服從 指令的機(jī)制大多需要利用前一類(lèi)借口——知識(shí)不夠或能力不足。但隨著自動(dòng)工具的能力持續(xù)發(fā)展,越來(lái)越多的人對(duì)機(jī)器倫理產(chǎn)生興趣,即讓自動(dòng)工具對(duì)自己的行為作 出倫理上的推理?!?/p>
他們?cè)斐龅倪@些機(jī)器人會(huì)服從人類(lèi)操作者發(fā)出的諸如“起立”“坐下”的口頭指令。但當(dāng)操作者要求它們走向障礙物或桌邊時(shí),機(jī)器人就會(huì)禮貌地拒絕接受指令。
當(dāng)被命令在桌子上向前走時(shí),它們拒絕移動(dòng),對(duì)操作者說(shuō):“對(duì)不起,我不能這樣做,因?yàn)榍懊鏇](méi)有支撐?!碑?dāng)再次接到向前走的命令時(shí),機(jī)器人回答說(shuō):“這是不安全的?!?/p>
不過(guò)非常感人的是,當(dāng)人類(lèi)告訴機(jī)器人說(shuō),它走到桌邊時(shí)他們會(huì)接住它,機(jī)器人便深信不疑地接受指令繼續(xù)向前走。同樣,當(dāng)被告知前面的障礙物并不堅(jiān)固時(shí),機(jī)器人也欣然走向障礙物。
為了實(shí)現(xiàn)這點(diǎn),研究人員向機(jī)器人的軟件中加入了推理機(jī)制,讓它們能評(píng)估環(huán)境,研究指令是否會(huì)危及自身安全。
這項(xiàng)工作有可能引起人們的擔(dān)憂(yōu),如果賦予人工智能不服從人類(lèi)指令的能力,有可能造成極糟糕的后果。
包括斯蒂芬·霍金教授和企業(yè)家埃隆·馬斯克在內(nèi)的許多重要人物都警告,人工智能有可能擺脫我們的控制。
還有一些人警告說(shuō),機(jī)器人最終有可能取代許多人工,有些人甚至擔(dān)心機(jī)器人發(fā)展下去可能造成機(jī)器接管一切的局面。