《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > AET原創(chuàng) > 當(dāng)“機(jī)”智過(guò)人成為現(xiàn)實(shí) 我們的恐慌要如何消除?

當(dāng)“機(jī)”智過(guò)人成為現(xiàn)實(shí) 我們的恐慌要如何消除?

2018-08-29
作者:王偉
關(guān)鍵詞: 人工智能 AI

  人工智能正以出乎想象的速度走進(jìn)我們的生活,滲透到了制造、家居、金融、交通、安防、醫(yī)療、物流等各行各業(yè)。據(jù)預(yù)測(cè),2018年全球AI產(chǎn)業(yè)市場(chǎng)規(guī)模將逼近2700億元;2020年全球市場(chǎng)規(guī)模將達(dá)4000億元;至2025年,全球范圍內(nèi)人工智能產(chǎn)業(yè)收入的年均復(fù)合增長(zhǎng)率將大幅提升,達(dá)到57%以上。

  誠(chéng)然,人工智能的飛速發(fā)展一定程度上改變了人們的生活,但與此同時(shí),由于人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私的政策、法律和標(biāo)準(zhǔn)問(wèn)題引起人們的日益關(guān)注。具備超快學(xué)習(xí)能力的人工智能是否將進(jìn)化的比人類還要先進(jìn)?是否有一天將擺脫人類的控制?一旦出現(xiàn)人機(jī)情感危機(jī)問(wèn)題應(yīng)如何解決?人工智能是否應(yīng)該作為法律意義上的人承擔(dān)事故責(zé)任?……諸如此類的問(wèn)題層出不窮,使得人們?cè)谙硎苋斯ぶ悄軒?lái)的便利的同時(shí),也難掩內(nèi)心的恐慌。

  就人工智能技術(shù)而言,安全、倫理和隱私問(wèn)題直接影響人們與人工智能工具交互經(jīng)驗(yàn)中對(duì)人工智能技術(shù)的信任。如果不能消除人們內(nèi)心的懷疑和忌憚,必將影響人工智能技術(shù)的發(fā)展。

  人工智能的安全問(wèn)題不容忽視

  人工智能最大的特征是能夠?qū)崿F(xiàn)無(wú)人類干預(yù)的,基于知識(shí)并能夠自我修正地自動(dòng)化運(yùn)行。在開(kāi)啟人工智能系統(tǒng)后,人工智能系統(tǒng)的決策不再需要操控者進(jìn)一步的指令,這種決策可能會(huì)產(chǎn)生人類預(yù)料不到的結(jié)果。設(shè)計(jì)者和生產(chǎn)者在開(kāi)發(fā)人工智能產(chǎn)品的過(guò)程中可能并不能準(zhǔn)確預(yù)知某一產(chǎn)品會(huì)存在的可能風(fēng)險(xiǎn)。因此,對(duì)于人工智能的安全問(wèn)題不容忽視。

  由于人工智能的程序運(yùn)行并非公開(kāi)可追蹤,其擴(kuò)散途徑和速度也難以精確控制。在無(wú)法利用已有傳統(tǒng)管制技術(shù)的條件下,想要保障人工智能的安全,必須另辟蹊徑,保證人工智能技術(shù)本身及在各個(gè)領(lǐng)域的應(yīng)用都遵循人類社會(huì)所認(rèn)同的倫理原則。

  其中應(yīng)特別關(guān)注的是隱私問(wèn)題,因?yàn)槿斯ぶ悄艿陌l(fā)展伴隨著越來(lái)越多的個(gè)人數(shù)據(jù)被記錄和分析,而在這個(gè)過(guò)程中保障個(gè)人隱私則是社會(huì)信任能夠增加的重要條件??傊⒁粋€(gè)令人工智能技術(shù)造福于社會(huì)、保護(hù)公眾利益的政策、法律和標(biāo)準(zhǔn)化環(huán)境,是人工智能技術(shù)持續(xù)、健康發(fā)展的重要前提。

3.jpg

  必須設(shè)定人工智能技術(shù)的倫理要求

  人工智能是人類智能的延伸,也是人類價(jià)值系統(tǒng)的延伸。在其發(fā)展的過(guò)程中,應(yīng)當(dāng)包含對(duì)人類倫理價(jià)值的正確考量。設(shè)定人工智能技術(shù)的倫理要求,要依托于社會(huì)和公眾對(duì)人工智能倫理的深入思考和廣泛共識(shí),并遵循一些共識(shí)原則:

  一是人類利益原則,即人工智能應(yīng)以實(shí)現(xiàn)人類利益為終極目標(biāo)。這一原則體現(xiàn)對(duì)人權(quán)的尊重、對(duì)人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險(xiǎn)和對(duì)社會(huì)的負(fù)面影響。在此原則下,政策和法律應(yīng)致力于人工智能發(fā)展的外部社會(huì)環(huán)境的構(gòu)建,推動(dòng)對(duì)社會(huì)個(gè)體的人工智能倫理和安全意識(shí)教育,讓社會(huì)警惕人工智能技術(shù)被濫用的風(fēng)險(xiǎn)。此外,還應(yīng)該警惕人工智能系統(tǒng)作出與倫理道德偏差的決策。二是責(zé)任原則,即在技術(shù)開(kāi)發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在技術(shù)層面可以對(duì)人工智能技術(shù)開(kāi)發(fā)人員或部門(mén)問(wèn)責(zé),在應(yīng)用層面可以建立合理的責(zé)任和賠償體系。在責(zé)任原則下,在技術(shù)開(kāi)發(fā)方面應(yīng)遵循透明度原則;在技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)一致原則。

2.jpg

  為個(gè)人隱私提供更強(qiáng)有力的保護(hù)

  人工智能的近期發(fā)展是建立在大量數(shù)據(jù)的信息技術(shù)應(yīng)用之上,不可避免地涉及到個(gè)人信息的合理使用問(wèn)題,因此對(duì)于隱私應(yīng)該有明確且可操作的定義。人工智能技術(shù)的發(fā)展也讓侵犯?jìng)€(gè)人隱私的行為更為便利,因此相關(guān)法律和標(biāo)準(zhǔn)應(yīng)該為個(gè)人隱私提供更強(qiáng)有力的保護(hù)。

  此外,人工智能技術(shù)的發(fā)展使得政府對(duì)于公民個(gè)人數(shù)據(jù)信息的收集和使用更加便利。大量個(gè)人數(shù)據(jù)信息能夠幫助政府各個(gè)部門(mén)更好地了解所服務(wù)的人群狀態(tài),確保個(gè)性化服務(wù)的機(jī)會(huì)和質(zhì)量。但隨之而來(lái)的是,政府部門(mén)和政府工作人員個(gè)人不恰當(dāng)使用個(gè)人數(shù)據(jù)信息的風(fēng)險(xiǎn)和潛在的危害應(yīng)當(dāng)?shù)玫阶銐虻闹匾暋?/p>

  人工智能語(yǔ)境下的個(gè)人數(shù)據(jù)的獲取和知情同意應(yīng)該重新進(jìn)行定義。首先,相關(guān)政策、法律和標(biāo)準(zhǔn)應(yīng)直接對(duì)數(shù)據(jù)的收集和使用進(jìn)行規(guī)制,而不能僅僅征得數(shù)據(jù)所有者的同意;其次,應(yīng)當(dāng)建立實(shí)用、可執(zhí)行的、適應(yīng)于不同使用場(chǎng)景的標(biāo)準(zhǔn)流程以供設(shè)計(jì)者和開(kāi)發(fā)者保護(hù)數(shù)據(jù)來(lái)源的隱私;再次,對(duì)于利用人工智能可能推導(dǎo)出超過(guò)公民最初同意披露的信息的行為應(yīng)該進(jìn)行規(guī)制。最后,政策、法律和標(biāo)準(zhǔn)對(duì)于個(gè)人數(shù)據(jù)管理應(yīng)該采取延伸式保護(hù),鼓勵(lì)發(fā)展相關(guān)技術(shù),探索將算法工具作為個(gè)體在數(shù)字和現(xiàn)實(shí)世界中的代理人。

1.jpg

  上文所涉及的安全、倫理和隱私問(wèn)題是人工智能發(fā)展面臨的挑戰(zhàn)。安全問(wèn)題是讓技術(shù)能夠持續(xù)發(fā)展的前提。技術(shù)的發(fā)展給社會(huì)信任帶來(lái)了風(fēng)險(xiǎn),如何增加社會(huì)信任,讓技術(shù)發(fā)展遵循倫理要求,特別是保障隱私不會(huì)被侵犯是亟需解決的問(wèn)題。為此,需要制訂合理的政策、法律、標(biāo)準(zhǔn)基礎(chǔ),并與國(guó)際社會(huì)協(xié)作。


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。