雷鋒網(wǎng)AI科技評論按:IEEE(美國電氣和電子工程師協(xié)會)最新宣布了三項新的人工智能發(fā)展標(biāo)準(zhǔn)。
IEEE 號稱為“世界上最大的先進技術(shù)專業(yè)組織”。根據(jù)最近發(fā)布的一份報告,他們的人工智能標(biāo)準(zhǔn)將優(yōu)先考慮人類,因為他們承諾要跟上AI領(lǐng)域不斷發(fā)展的腳步。
IEEE發(fā)布三項人工智能新標(biāo)準(zhǔn),涉及高層次倫理問題
在發(fā)布的《合乎倫理的設(shè)計:將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》報告中,共分為八個部部分闡述了新的人工智能發(fā)展問題。分別是:一般原則,人工智能系統(tǒng)賦值;指導(dǎo)倫理學(xué)研究和設(shè)計的方法學(xué);通用人工智能和超級人工智能的安全與福祉;個人數(shù)據(jù)和個人訪問控制;重新構(gòu)造自動武器系統(tǒng);經(jīng)濟/人道主義問題;法律。
IEEE發(fā)布三項人工智能新標(biāo)準(zhǔn),涉及高層次倫理問題
一般原則涉及高層次倫理問題,適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時,主要考慮三大因素:體現(xiàn)人權(quán);優(yōu)先考慮最大化對人類和自然環(huán)境的好處;削弱人工智能的風(fēng)險和負面影響。
人類利益原則要求考慮如何確保AI不侵犯人權(quán)。責(zé)任原則涉及如何確保AI是可以被問責(zé)的。為了解決過錯問題,避免公眾困惑,AI系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運作。透明性原則意味著自主系統(tǒng)的運作必須是透明的。AI是透明的意味著人們能夠發(fā)現(xiàn)其如何以及為何做出特定決定。
在關(guān)于如何將人類規(guī)范和道德價值觀嵌入AI系統(tǒng)中,報告中表示由于AI系統(tǒng)在做決定、操縱其所處環(huán)境等方面越來越具有自主性,讓其采納、學(xué)習(xí)并遵守其所服務(wù)的社會和團體的規(guī)范和價值是至關(guān)重要的。可以分三步來實現(xiàn)將價值嵌入AI系統(tǒng)的目的:
第一,識別特定社會或團體的規(guī)范和價值;
第二,將這些規(guī)范和價值編寫進AI系統(tǒng);
第三,評估被寫進AI系統(tǒng)的規(guī)范和價值的有效性,即其是否和現(xiàn)實的規(guī)范和價值相一致、相兼容。
雖然上述的相關(guān)研究一直在持續(xù),這些研究領(lǐng)域包括機器道德(Machine Morality)、機器倫理學(xué)(Machine Ethics)、道德機器(Moral Machine)、價值一致論(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但開發(fā)能夠意識到并理解人類規(guī)范和價值的計算機系統(tǒng),并讓其在做決策時考慮這些問題,一直困擾著人們。當(dāng)前主要存在兩種路徑:自上而下的路徑和自下而上的路徑。這一領(lǐng)域的研究需要加強。
報告中還指出需要指導(dǎo)倫理研究和設(shè)計的方法論,通用人工智能和超級人工智能的安全與福祉,重構(gòu)自主武器系統(tǒng),以及經(jīng)濟/人道主義問題等八個人工智能發(fā)展面臨的問題。報告中收集了超過一百位來自人工智能領(lǐng)域?qū)W術(shù)界,科學(xué)界,以及政府相關(guān)部門的思想領(lǐng)袖的意見,整合了人工智能、倫理學(xué)、哲學(xué)和政策等多個領(lǐng)域?qū)I(yè)知識。它的修訂版EAD(Ethically Aligned Design) 版本將會在2017年底推出,報告增至為十三個章節(jié),含二百五十多個全球思想領(lǐng)袖的精華分享。
IEEE 機器人和自動化協(xié)會的主席Satoshi Tadokoro 解釋了他們?yōu)槭裁聪胍贫ㄟ@樣的標(biāo)準(zhǔn):“機器人和自動系統(tǒng)將為社會帶來重大創(chuàng)新。最近,公眾越來越關(guān)注可能發(fā)生的社會問題,以及可能產(chǎn)生的巨大潛在利益。不幸的是,在這些討論中,可能會出現(xiàn)一些來自虛構(gòu)和想象的錯誤信息?!?/p>
Tadokoro 繼續(xù)說道:“IEEE 將基于科學(xué)和技術(shù)的公認事實來引入知識和智慧,以幫助達成公共決策,使人類的整體利益最大化?!背薃I倫理標(biāo)準(zhǔn)外,還有其他兩個人工智能標(biāo)準(zhǔn)也被引入報告中,每個項目都由領(lǐng)域?qū)<翌I(lǐng)導(dǎo)。
第一個標(biāo)準(zhǔn)是:“機器化系統(tǒng)、智能系統(tǒng)和自動系統(tǒng)的倫理推動標(biāo)準(zhǔn)”。這個標(biāo)準(zhǔn)探討了“推動”,在人工智能世界里,它指的是AI會影響人類行為的微妙行動。
第二個標(biāo)準(zhǔn)是“自動和半自動系統(tǒng)的故障安全設(shè)計標(biāo)準(zhǔn)”。它包含了自動技術(shù),如果它們發(fā)生故障,可能會對人類造成危害。就目前而言,最明顯的問題是自動駕駛汽車。
第三個標(biāo)準(zhǔn)是“道德化的人工智能和自動系統(tǒng)的福祉衡量標(biāo)準(zhǔn)”。它闡述了進步的人工智能技術(shù)如何有益于人類的益處。
這些標(biāo)準(zhǔn)的實施可能比我們想象的要早,因為像 OpenAI 和 DeepMind 這樣的公司越來越快地推進人工智能的發(fā)展,甚至創(chuàng)造出能夠自我學(xué)習(xí)又擴大“智能”領(lǐng)域的人工智能系統(tǒng)。專家們認為,這樣的人工智能會破壞世界穩(wěn)定,導(dǎo)致大規(guī)模的失業(yè)和戰(zhàn)爭,甚至轉(zhuǎn)向創(chuàng)造“殺人武器”。最近,聯(lián)合國的重要討論促使人們開始認真思考,需對將人工智能技術(shù)當(dāng)作武器使用進行更嚴格的監(jiān)管。
雷鋒網(wǎng)小結(jié):2017年是AI發(fā)展最快的一年,AI 威脅論一波未平,一波又起。這其中牽扯到AI濫用、AI透明性、算法公平、AI倫理、AI監(jiān)管和責(zé)任、AI信任等問題,我們看到其中有一部分正在擬定相關(guān)的標(biāo)準(zhǔn)和規(guī)范。不過,未來AI的發(fā)展還需要更多的討論和對話,一方面需要確保法律和政策不會阻礙創(chuàng)新進程,另一方面,對新出現(xiàn)的諸如倫理、責(zé)任、安全、隱私等問題,需要在跨學(xué)科的基礎(chǔ)上,以及在政府、企業(yè)、民間機構(gòu)、公眾密切合作的基礎(chǔ)上,共同削弱AI的不利影響,創(chuàng)建人類和AI彼此信任的未來。