8月11日報道 外媒稱,“在我們的世界被能夠殺人的機器取代之前,我們必須嚴(yán)肅承諾。永遠(yuǎn)不能出于憐憫而啟用與人類截然不同的機器人戰(zhàn)士”。發(fā)出這段警告的是南非人克里斯托弗·海恩斯--聯(lián)合國人權(quán)理事會負(fù)責(zé)法外處決問題顧問。
據(jù)西班牙《萬象》月刊6月號報道,說起殺人機器人總是能令人想起科幻電影,但實際上它卻具有十分真實的可能性。美軍已經(jīng)在阿富汗戰(zhàn)場大量使用無人機,并宣布未來20年要裁軍12萬,目的就是用機器人戰(zhàn)士取而代之。為此,美國國防部高級研究項目局已經(jīng)開始了這方面的工作。
報 道稱,多數(shù)專家一致認(rèn)為,或許說20年太短,但如果沒有人阻止的話,第一代機器人戰(zhàn)士遲早會出現(xiàn)在戰(zhàn)場上。今年4月,《非常規(guī)武器公約》締約國在日內(nèi)瓦召 開會議,一些機器人和人工智能設(shè)備領(lǐng)域的專家獲邀出席了會議。召開此次會議是為未來就禁止研發(fā)專家們稱為“致命自主武器系統(tǒng)”簽訂協(xié)議奠定必要的基礎(chǔ)。大 赦國際負(fù)責(zé)武器控制、安全和人權(quán)事務(wù)的專家拉莎·阿卜杜勒-拉希姆表示,“我們所說的是除無人機以外的東西”。她表示,“我們現(xiàn)在擔(dān)心的是完全有自主性的 機器人武器系統(tǒng),它可以有選擇性地攻擊目標(biāo),在沒有人類的有效控制之下殺死或致人受傷”。目前,這樣的武器系統(tǒng)尚未在任何國家使用過,但是開始出現(xiàn)的首批 模型已經(jīng)足以讓我們預(yù)見等待我們的將會是怎樣一個未來。
最轟動的機器人武器系統(tǒng)來自于日本,被稱為Kurata。這是一個重達(dá)4噸的巨型機器人,身高約4米,配有可以遠(yuǎn)程操控的帶輪子的4只腳。
報道稱,Kurata機器人最特別之處是,配備了兩架機關(guān)槍,能夠在1分鐘內(nèi)發(fā)射6000發(fā)子彈,此外還有一套追蹤移動目標(biāo)的系統(tǒng)。其售價超過100萬美元,雖然從其發(fā)布以來至今尚未售出過一臺,但它的出現(xiàn)已經(jīng)足以證明,機器人戰(zhàn)士的時代已經(jīng)開始。這到底是好事還是壞事?
這 要看怎么說。機器人應(yīng)用領(lǐng)域最具權(quán)威的專家之一、美國密歇根大學(xué)教授羅納德·阿金就認(rèn)為,機器人戰(zhàn)士的出現(xiàn)不僅是一個已經(jīng)停不下來的事實,而且也是非常積 極的一件事?!懊恳粓鰬?zhàn)爭制造的暴行都是說也說不完的,而制造者永遠(yuǎn)都是人?!卑⒔鹫f,“戰(zhàn)場上人類的行為很多時候從道德和法律上說都是令人懷疑的。歷史 上出現(xiàn)過無數(shù)的戰(zhàn)爭犯,他們制造戰(zhàn)爭的原因也是各種各樣。面對這一切的混亂,機器人將可以大大地解決問題,至少可以讓問題減少到最少?!?/p>
報道稱,他認(rèn)為,用機器人替代真的士兵幾乎可以稱得上是一種道德責(zé)任。“首先,使用機器人的軍隊可以大幅度減少在戰(zhàn)場上必須犧牲掉的士兵人數(shù);其次還可以避免給平民造成傷亡,他們都是戰(zhàn)爭的‘附帶犧牲品’”。
阿 金支持研發(fā)“致命自主武器系統(tǒng)”的理由是,“為了在戰(zhàn)場上讓士兵的判斷不至于受到情緒的影響。潛在的恐懼感和情緒狂躁是戰(zhàn)場上士兵們面臨的最大敵人,往往 他們無法承受這種壓力,最終做出了可怕的決定。相反,如果是機器人戰(zhàn)士,如果給它們設(shè)定適當(dāng)?shù)某绦颍诋a(chǎn)生疑慮時它們就不會采取行動。與人類不同,機器人 不會是先射擊再產(chǎn)生問題”。因此,在阿金看來問題的關(guān)鍵并不在于機器本身,而是設(shè)定程序的標(biāo)準(zhǔn)。“機器人戰(zhàn)士和烤面包機一樣,它們沒有靈魂,也沒有區(qū)分好 壞的意識。如果給它設(shè)定大開殺戒的程序,它就會大開殺戒。關(guān)鍵在于設(shè)計是否能讓它們有效,在盡可能避免流血的前提下完成任務(wù)”。
報道稱,英國設(shè)菲爾德大學(xué)人工智能和機器人項目榮譽退休教授諾埃爾·夏基則持完全相反的觀點。他是“停止殺人機器人”運動的創(chuàng)立者,也是國際機器人武器控制委員會成員,該委員會由科學(xué)家和人權(quán)方面的律師組成。
夏基表示,“從道德的角度講,很多人認(rèn)為將生殺大權(quán)交給一臺機器是十分可怕的想法。而且,雖然完全自主的武器系統(tǒng)不會被恐懼或憤怒牽著鼻子走,但它們也缺乏憐憫之心,而憐憫卻是避免平民遭屠殺的最關(guān)鍵的一種保護(hù)傘”。
報 道稱,目前,美軍已經(jīng)將大量作戰(zhàn)任務(wù)交給了無人機來執(zhí)行,韓國軍隊也已經(jīng)開始使用遠(yuǎn)程操控的裝甲車在邊境巡邏,但是這些機器沒有一樣是完全自主性的,開火 的決策權(quán)依然掌握在人類手中。因此,在日內(nèi)瓦開會的各國專家所尋求的是在成為現(xiàn)實之前就禁止使用“致命自主武器系統(tǒng)”達(dá)成一項國際性協(xié)議。雖然專家們知道 這不是件簡單的事,就像大赦國際的米格爾·安赫爾·卡爾德龍所言,在下定決心研發(fā)這樣的武器系統(tǒng)時,企業(yè)的利益往往超越了一切。
事實上,決 定已經(jīng)有了。如前所述,在美國國防部高級研究項目局的資助下,一個被命名為“Atlas”的機器人已經(jīng)于2013年正式亮相。這是一個看上去和“終結(jié)者” 頗為相似的雙足人形機器人。它的身體靠液壓啟動的28個關(guān)節(jié)組成,這使其能夠在各種路面環(huán)境中靈活的移動。當(dāng)然,它還可以攜帶武器。
報道 稱,俄羅斯也加入到這場競賽當(dāng)中??倕⒅\長瓦列里·格拉西莫夫已經(jīng)表示過想在車臣戰(zhàn)場上裝備機器人戰(zhàn)士的想法?,F(xiàn)在,俄羅斯軍方已經(jīng)實現(xiàn)了他強大的技術(shù)武 器庫,其中最引人注目的就是“MRK-27BT”戰(zhàn)斗機器人。這是一種履帶式移動機器人,配備了1挺機關(guān)槍、兩個發(fā)射筒、兩個噴火器和6個煙霧彈。此外, 俄羅斯還在今年1月發(fā)布了第一款自主戰(zhàn)斗機器人,這也是一個可以在平地移動的具人形狀的的機器人。但是,這次表演并無特別之處,攝像機甚至還記錄下了俄羅 斯總統(tǒng)普京在現(xiàn)場打哈欠的鏡頭,這也從一個側(cè)面證明,他對俄軍隊的第一個戰(zhàn)斗機器人的印象并不深刻。
除了道德因素,經(jīng)濟問題也是研發(fā)此類武 器系統(tǒng)時要考慮的問題。美國國防部聯(lián)合部隊司令部機器人項目負(fù)責(zé)人、智能戰(zhàn)“教父”戈登·約翰遜表示,“一名士兵一生平均將花費國防部400萬美元,而且 這個數(shù)字還在逐年上升。而據(jù)我們的估算,一名機器人戰(zhàn)士的花銷卻只有這個數(shù)額的1/10”。為了能讓人們對任何軍隊使用機器人戰(zhàn)士都能省錢形成概念,只要 看看美國政府今年對退役士兵欠下的錢就可以了——6530億美元。如果使用機器人戰(zhàn)士,這筆錢將可以節(jié)省下來。此外,機器人的服役時間也能比人更久。當(dāng) 然,軍方也不能逃避因使用越來越具有自主性的機器人戰(zhàn)士所帶來的法律和道德后果。約翰遜表示,“我常常想,如果這樣的機器人摧毀的是一部校車,而不是坦克 該怎么辦?因此,在我們確定機器人可以準(zhǔn)確無誤地瞄準(zhǔn)一個目標(biāo)之前,我們不能讓機器擁有射擊的能力”。
報道稱,這雖然是一個理智的立場,但 事情卻沒那么簡單。西班牙薩拉戈薩大學(xué)信息與系統(tǒng)工程學(xué)教授曼努埃爾·岡薩雷斯·貝迪亞認(rèn)為,“任何機器都有可能出錯,根本不存在百分之百的有效性。這是 適用于個人電腦或造價超過千萬美元的機器人超級戰(zhàn)士的有效規(guī)律。最大的區(qū)別在于,機器人在戰(zhàn)場上制造的錯誤更加嚴(yán)重,與人類生命息息相關(guān)”。
諾 埃爾·夏基認(rèn)為,最有可能產(chǎn)生的極端結(jié)果是,“在出現(xiàn)錯誤的情況下,我們原本用來攻擊敵軍的這些機器會反過來攻擊我們自己。各種風(fēng)險都是可能存在的”。此 外,該如何執(zhí)行法律也是爭論的焦點之一。大赦國際的卡爾德龍表示,“誰該為不受控制的致命自主武器系統(tǒng)可能犯的戰(zhàn)爭罪行負(fù)責(zé)?國際法制定的問責(zé)制規(guī)定誰是 行動的負(fù)責(zé)者,誰就該為賠償負(fù)責(zé)。但是應(yīng)用到機器人身上,事情沒有這么簡單,因為機器本身并不是殺人行為的責(zé)任者”。
但是以軍用目的開發(fā)機 器人技術(shù)的支持者之一阿金卻認(rèn)為,“的確如此,一旦發(fā)生這樣的情況,我們不會看到有哪個具體的士兵受到審判,并因這樣的罪行而被判有罪。然而,最高指揮應(yīng) 該為這樣的機器負(fù)責(zé),相應(yīng)的政府也應(yīng)該為犧牲者支付賠償。另一方面,我堅信有一天會制定這方面的法律,彌補現(xiàn)在的漏洞”。
報道稱,此外,阿 金還認(rèn)為完全禁止研發(fā)這樣的武器是沒有任何實際效果的做法?!叭绻麢C器人戰(zhàn)士真的能被運用在戰(zhàn)場,就一定會有人加以利用”。他回顧了在1899年,盡管歐 洲國家都簽訂了《禁止使用散布窒息性或有毒氣質(zhì)為唯一目的之投射物的海牙宣言》,德國人還是在二戰(zhàn)中使用了這種氣體。阿金表示,“必須要做的是通過可信的 研究證實,這樣的機器能夠依照國際法的規(guī)定行動”。
像電影《終結(jié)者》講述的那種由殺人機器人統(tǒng)治世界的未來情景離實現(xiàn)還很遙遠(yuǎn)。阿金表示, “把機器人當(dāng)成無所不能的奇跡是荒唐的想法。機器就是機器,它們不可能有是非觀念”。因此,面對斯蒂芬·霍金等一些科學(xué)家對失控的人工智能設(shè)備的質(zhì)疑,工 程師兼程序員默里·沙納漢表示,“如果說存在一種能夠自己拿主意的機器人,那這還純屬臆想當(dāng)中的完美事情。我們還不知道怎樣造這樣一臺機器。我們能夠造出 的軍用人工設(shè)備完全是不具備任何自主行動的工具,因此要認(rèn)清長期內(nèi)這種設(shè)備到底意味著怎樣的風(fēng)險是最重要的。所以,有人認(rèn)為我們是在傷害發(fā)生之前綁繃帶, 但是這個問題的重要性是值得我們具備這樣的前瞻性的”。
報道稱,日內(nèi)瓦峰會的召開是想讓聯(lián)合國各成員國就不使用“非人類軍隊”簽署一項備忘錄,盡管似乎正在開展這項工作的國家并不多。2015年初美國軍方宣布,希望首批機器人戰(zhàn)士能在2030年運用于實戰(zhàn),到2040年美軍中每4名戰(zhàn)士中就有1個是機器人。
不 遠(yuǎn)的將來會發(fā)生什么?禁止使用殺人機器人的支持者們十分樂觀,認(rèn)為他們的愿望一定能實現(xiàn)。諾埃爾·夏基表示,“既然我們已經(jīng)在禁用化學(xué)武器和激光致盲武器 方面取得了成功,我們也有理由認(rèn)為在殺人機器人問題上獲得我們想要的結(jié)果”。而以阿金為代表的支持使用機器人戰(zhàn)士的一方也在堅持著自己的觀點。雙方至少在 一點上是能達(dá)成共識的:機器人造成的世界末日離我們還很遙遠(yuǎn)。