人工智能技術(shù)的迅猛發(fā)展及其在社會各領(lǐng)域的廣泛應(yīng)用,帶來了一系列風(fēng)險挑戰(zhàn)。如何對人工智能倫理風(fēng)險進(jìn)行道德治理,成為人們不得不認(rèn)真思考的重要問題。按照傳統(tǒng)責(zé)任理論,由某項技術(shù)所引發(fā)的道德責(zé)任須根據(jù)過失的大小分配給該技術(shù)的設(shè)計師、制造商、使用者、監(jiān)管者等人類主體。但由于人工智能具有顯著的自動化特征,如果將其排除在道德責(zé)任之外,可能會造成“責(zé)任空場”。因此,建立完善的人工智能道德治理體系,必須破解該技術(shù)在道德責(zé)任歸屬時面臨的難題。
有限責(zé)任
人工智能責(zé)任歸屬的第一個難題是人工智能是否有資格成為某一事件(或后果)負(fù)責(zé)任的行為者,而不只是由人類操控的技術(shù)工具。這需要回答人工智能是否具備就承擔(dān)責(zé)任而言的最低限度的道德認(rèn)知能力和道德自主性。人工智能是用計算機(jī)來模擬和實現(xiàn)的“類人智能”。它將外部環(huán)境信息轉(zhuǎn)換為輸入數(shù)據(jù),并通過從數(shù)據(jù)中生成的特征量對輸入數(shù)據(jù)進(jìn)行處理,實現(xiàn)數(shù)據(jù)輸出。人工智能的輸入和輸出過程,可以理解為它感知外部環(huán)境信息和根據(jù)感知信息而采取特定行動的過程。人工智能的行為選擇是基于對外部環(huán)境的判斷所作出的能動反應(yīng)。相較而言,傳統(tǒng)計算機(jī)程序根據(jù)設(shè)計好的函數(shù)完成數(shù)據(jù)的輸入與輸出,其對外部環(huán)境的反應(yīng)是被動的。此外,人工智能還可以進(jìn)一步插入道德算法,將人類對道德重要性的理解轉(zhuǎn)譯為人工智能信息處理和決策的邏輯規(guī)則,使其從前瞻性意義上遵守社會道德要求,作出負(fù)責(zé)任的行為決策。
人工智能的特殊性在于其獨(dú)特的學(xué)習(xí)算法。通過多層處理,低層次的特征表示轉(zhuǎn)化為高層次的特征表示,使人工智能具備了完成復(fù)雜任務(wù)的能力,可以模仿特定的人類行為。例如,AlphaGo通過神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)和反復(fù)自我博弈的強(qiáng)化學(xué)習(xí),不僅提高了其在圍棋博弈中的預(yù)測能力,而且還發(fā)現(xiàn)新的游戲規(guī)則,走出了新策略。這里,學(xué)習(xí)算法是由人類設(shè)計師預(yù)先規(guī)定的,但AlphaGo通過機(jī)器學(xué)習(xí)而作出的行為決策卻不是人類設(shè)計師決定的。人工智能具備了確定但有限的自主性、交互性及行動能力,可以在特定環(huán)境中獨(dú)立作出行為決策,故可對其進(jìn)行道德歸責(zé)。而承認(rèn)人工智能可在最低限度上進(jìn)行責(zé)任歸屬,就肯定了其在道德治理體系中有限的能動地位。
非意圖責(zé)任
第二個難題是人工智能遵循數(shù)學(xué)、物理學(xué)等自然定律,缺乏“能夠承擔(dān)責(zé)任的感覺”。對責(zé)任的主觀感受首先表現(xiàn)為行為者的主觀意圖,即行為者對行為的意義的認(rèn)識,希望或想要以某種方式行動的態(tài)度。盡管主觀意圖確實影響了人們對行為者進(jìn)行道德譴責(zé)或懲罰的力度,但它并非責(zé)任歸屬的必要條件。從道德實踐上看,主觀意圖作為行為者的內(nèi)在狀態(tài),很難對其作出準(zhǔn)確評價。而且,人們進(jìn)行責(zé)任歸屬的目的在于,通過對損害性后果的回溯性評價,來確定導(dǎo)致該后果的行為者原因,不論行為者是否有主觀意圖。德國學(xué)者奧特弗利德·赫費(fèi)以俄狄浦斯為例,說明這種無過錯責(zé)任在史前社會普遍存在:責(zé)任是客觀的,即便行為者不存在任何主觀過錯,也需要承擔(dān)道德責(zé)任。按照客觀性原則對人工智能進(jìn)行責(zé)任歸屬,主要考查損害性后果以及行為與后果之間的因果關(guān)系即可,不必再關(guān)注行為者的主觀意圖。
對責(zé)任的主觀感受還表現(xiàn)為行為者因自己的行為而產(chǎn)生的自責(zé)、懊悔等反應(yīng)性態(tài)度,因而承認(rèn)自己本來可以按照其他方式而行動。人工智能缺乏感受性,很難想象它會產(chǎn)生任何形式的痛苦或內(nèi)疚,那么,對人工智能進(jìn)行責(zé)任歸屬并實施道德懲罰是否還有意義?就反應(yīng)性態(tài)度而言,他人的反應(yīng)性態(tài)度而非行為者的自我反應(yīng)性態(tài)度才是責(zé)任歸屬的動力。他人的責(zé)備和怨恨不僅是他人對某一事件(或后果)所作出的價值評價,也是在評價基礎(chǔ)上對行為者所作出的反應(yīng)。責(zé)備和怨恨允許行為者提出免于被責(zé)備的理由。但與此同時,如果行為者與某一事件(或后果)的因果責(zé)任極其顯著,引發(fā)他人強(qiáng)烈的責(zé)備和怨恨反應(yīng)時,他人將拒絕人工智能以技術(shù)作為其免責(zé)理由。就道德懲罰而言,懲罰作為“對過去錯誤的一種自然報復(fù)”,在現(xiàn)代社會逐漸喪失其道德正當(dāng)性。道德責(zé)任并不必然要求對行為者進(jìn)行道德懲罰,而是要求行為者正視、改正或補(bǔ)償自己的道德過錯,同時盡量避免發(fā)生類似的道德過錯。就此而言,要求人工智能承擔(dān)道德責(zé)任是可行的。
共同責(zé)任
第三個難題是對人工智能進(jìn)行責(zé)任歸屬,是否會削弱人類的道德責(zé)任或威脅人類的責(zé)任主體地位。答案是否定的。對人工智能的正確歸責(zé)有助于明確人類與人工智能的責(zé)任邊界,從而強(qiáng)化人類的道德責(zé)任。人類設(shè)計師、制造商、使用者等參與了人工智能的理論創(chuàng)新、技術(shù)研發(fā)、生產(chǎn)制造、實踐應(yīng)用等環(huán)節(jié),相應(yīng)地承擔(dān)著內(nèi)在知識的責(zé)任、科學(xué)實驗的責(zé)任以及將科學(xué)付諸實踐的責(zé)任。這些多元主體在該技術(shù)設(shè)計—生產(chǎn)—應(yīng)用鏈條上分工合作,由此發(fā)展出一條責(zé)任鏈:沒有哪個單獨(dú)環(huán)節(jié)承擔(dān)單獨(dú)的責(zé)任,每個環(huán)節(jié)都是責(zé)任的一部分,而這部分責(zé)任又不得不與這個環(huán)節(jié)對整個行為所承擔(dān)的責(zé)任相聯(lián)系。正如赫費(fèi)所言,誰為別人能夠做這件事創(chuàng)造了一些前提條件,他就要為這件事負(fù)有共同責(zé)任。相反,如果他們沒有看到這種關(guān)系,或者不能看到這種關(guān)系,就會產(chǎn)生責(zé)任歸屬的要求,應(yīng)該為此設(shè)置能夠監(jiān)督責(zé)任履行的機(jī)構(gòu)。該機(jī)構(gòu)對人類設(shè)計師、制造商和使用者的履責(zé)行為進(jìn)行監(jiān)督和管理。人類行為者不僅不能免除道德責(zé)任,還需承擔(dān)起相應(yīng)的賠償或補(bǔ)償責(zé)任。
在道德實踐中,人類行為者將一部分道德授權(quán)給人工智能,如允許智能搜索引擎對敏感詞進(jìn)行篩查并屏蔽等。授權(quán)行為意味著一部分道德資本由人類行為者轉(zhuǎn)移給人工智能,使后者代替人類行為者履行一定的社會職責(zé)。對人工智能的道德授權(quán)是否意味著道德責(zé)任的授權(quán)?這取決于授權(quán)是對道德行為本身的授權(quán)還是對道德行為坐標(biāo)(即只為人類道德決策提供反饋信息)的授權(quán)。對道德行為的授權(quán),意味著道德上的善惡及責(zé)任在人工智能與人類所組成的多智能體系統(tǒng)中分布。此時,人工智能替代人類行為者參與到現(xiàn)實的社會分工之中,成為社會系統(tǒng)的重要組成部分,因而,需要承擔(dān)由社會分配給該職責(zé)的道德責(zé)任,即分布式道德責(zé)任。對道德行為坐標(biāo)的授權(quán),仍將人類作為道德責(zé)任的中心并通過人工智能實現(xiàn)人類的道德意圖,人工智能僅需承擔(dān)擴(kuò)展式道德責(zé)任。不論分布式還是擴(kuò)展式道德責(zé)任,都沒有免除人類在道德治理中的主體地位。
總之,人工智能道德治理的關(guān)鍵在于立足一種新的開放性責(zé)任理論對人工智能進(jìn)行責(zé)任歸屬。首先,人工智能的道德責(zé)任是無過錯責(zé)任。人工智能責(zé)任歸屬的目的是依據(jù)客觀性原則對道德行為及其后果進(jìn)行正確歸因。特別是當(dāng)多行為主體共同參與某一行為決策時,正確歸因有助于及時糾正錯誤。其次,人工智能能夠且僅能承擔(dān)與其智能水平和自治能力相適應(yīng)的道德責(zé)任。當(dāng)前廣泛應(yīng)用的弱人工智能的道德責(zé)任與其具備從大數(shù)據(jù)中自行提取特征量的能力密切相關(guān)。對其責(zé)任歸屬不能整齊劃一,需要根據(jù)其自動化等級分級對待。超出其能力范圍的道德責(zé)任仍需由人類行為者承擔(dān)。再次,人工智能的責(zé)任歸屬要求對人工智能算法進(jìn)行回溯性實驗直至找到算法缺陷或程序漏洞。人工智能承擔(dān)責(zé)任的方式包括優(yōu)化算法、程序升級、暫?;蛴谰猛V故褂谩O鄳?yīng)的補(bǔ)償或賠償責(zé)任也需由人類行為者承擔(dān)。最后,人類設(shè)計師應(yīng)監(jiān)督和激勵人工智能不斷積累道德經(jīng)驗,將道德經(jīng)驗轉(zhuǎn)化為道德算法或新的特征量,盡量減少未經(jīng)預(yù)料的道德情形和兩難困境。在計算機(jī)領(lǐng)域,通過程序升級修正漏洞的情形很常見,這也要求對人工智能的道德錯誤進(jìn)行合理認(rèn)識和總結(jié)。