在過去很多年內(nèi),人工智能更多的只是作為科幻影片中的橋段出現(xiàn)在我們面前,但如今這一前沿科技似乎已經(jīng)逐漸成為了人們?nèi)粘I畹闹髁髟刂?。比如,包括蘋果Siri、亞馬遜Alexa、IBM的Watson以及Google Brain都擁有著理解人類語言的極高認(rèn)知能力。
應(yīng)該說,近年來大量可聯(lián)網(wǎng)設(shè)備的出現(xiàn)以及全新機(jī)器學(xué)習(xí)算法的結(jié)合使得越來越多人工智能科技的實(shí)現(xiàn)成為了可能。有業(yè)內(nèi)人士甚至擔(dān)心,科幻影片中機(jī)器自主學(xué)習(xí)、自我改善的能力恐怕也將在不久后成為現(xiàn)實(shí),而那時(shí)人類的重要性則將被大大削弱。
“我認(rèn)為全能型人工智能科技的發(fā)展甚至有可能終結(jié)人類的延續(xù)?!庇锢砑疤煳膶W(xué)家史蒂芬-霍金(Stephen Hawking)說道。
對于霍金的這一觀點(diǎn),特斯拉CEO埃隆-馬斯克(Elon Musk)以及微軟聯(lián)合創(chuàng)始人比爾-蓋茨(Bill Gates)也都表示了贊同。
對于這一外界非常關(guān)注的話題,美國媒體日前就邀請到了Skype聯(lián)合創(chuàng)始人讓-塔林(Jaan Tallinn)、IBM沃特森研究中心副總裁古如德斯-巴維亞(Guruduth Banavar)、巴多瓦大學(xué)(University of Padua)計(jì)算機(jī)教授弗朗斯卡-羅西(Francesca Rossi)共聚一堂同我們分享了他們對于人工智能科技發(fā)展的看法。
記者:人工智能是否對人類構(gòu)成了威脅?
古如德斯-巴維亞:由于受到了科幻影片的影響,人們大多將這一問題歸咎于人類和機(jī)器之間的沖突。智能機(jī)器的設(shè)計(jì)初衷是幫助人們完成人類所不善于完成的工作,就比如處理、過濾規(guī)模宏大的數(shù)據(jù)流。同樣的道理,智能機(jī)器在一些人類所擅長的領(lǐng)域則有著諸多的不足,就比如簡單的詞義理解、創(chuàng)造性思維等。因此我們相信將人類和機(jī)器的智慧結(jié)合在一起才是這個(gè)“認(rèn)知計(jì)算”概念的根基所在,并將徹底革新我們解決復(fù)雜問題的能力。
目前,基于人工智能的系統(tǒng)已經(jīng)在許多方面改善了我們的生活,就比如飛機(jī)的自動駕駛功能、系統(tǒng)的自動推薦模塊以及應(yīng)用于工業(yè)領(lǐng)域的機(jī)器人等等。而且在過去5-10年時(shí)間內(nèi),機(jī)器自主學(xué)習(xí)算法以及先進(jìn)的計(jì)算機(jī)基礎(chǔ)設(shè)施已經(jīng)幫助我們打造出了許多全新應(yīng)用設(shè)備。
但需要指出的是,我們必須明白這類“機(jī)器自主學(xué)習(xí)算法”的作用僅限于此,因?yàn)榧幢闶侨缃褡钕冗M(jìn)的神經(jīng)科學(xué)以及認(rèn)知學(xué)成就也僅僅是觸及了人類智慧最表面的東西而已。
讓-塔林:如今的人工智能技術(shù)恐怕還不足以構(gòu)成威脅,但當(dāng)我們進(jìn)入所謂的超級智能時(shí)代后,我們的問題才會真正出現(xiàn)。
記者:什么是所謂的“超級智能控制問題”(superintelligence control problem)?
讓-塔林:即便是如今最智能的機(jī)器人都會擁有一個(gè)開關(guān),以讓人們對其進(jìn)行最終的控制。然而,這個(gè)開關(guān)之所以能夠奏效是因?yàn)樗`屬于機(jī)器人的控制范圍之外。舉例來說,下棋電腦僅僅會專注于下棋,而卻不會意識到自己的競爭對手可以隨時(shí)拔掉電源來終結(jié)比賽。
然而,如果超級智能機(jī)器可以對這個(gè)世界的狀態(tài)產(chǎn)生認(rèn)知,并預(yù)計(jì)出人們拔掉電源的后果,那么它就有可能阻止人們這樣做。
記者:那么這個(gè)問題會有多嚴(yán)重呢?
讓-塔林:就現(xiàn)階段而言,這其實(shí)是一個(gè)純粹的理論問題,我們相信超級智能機(jī)器極有可能會始終遵循設(shè)計(jì)者的編程語言或者某些物理定律。但就你的問題而言,我認(rèn)為超級智能機(jī)器開始阻止人們對其進(jìn)行“斷電”的做法是一個(gè)非常嚴(yán)重問題,因?yàn)槲覀冎辽傩枰獙Τ壷悄軝C(jī)器保留有一定的控制權(quán)。
弗朗斯卡-羅西:就狹義來說,人工智能已經(jīng)在某些領(lǐng)域相比人類更為聰明了。人類暫時(shí)還沒有受到來自人工智能的威脅,但卻已經(jīng)感受到了來自它們的影響力。因此,我們有必要評估人工智能在狹義領(lǐng)域?qū)θ祟愑锌赡墚a(chǎn)生的威脅,并將它們打造的更為安全、友好、且秉持同人類相同的價(jià)值觀。這絕不是一個(gè)簡單的工作,因?yàn)榫瓦B人類有時(shí)都不會遵循自己定下的規(guī)矩。
記者:你認(rèn)為人工智能在狹義領(lǐng)域會對人類產(chǎn)生哪些威脅?
弗朗斯卡-羅西:比如自動交易系統(tǒng)以及自動駕駛汽車。尤其是后者,如果人工智能出錯(cuò)的話甚至將威脅到乘坐者的生命安全。
記者:巴維亞,你是怎么看待這一威脅的?
古如德斯-巴維亞:關(guān)于威脅的問題總是分為兩個(gè)方面的。我們早就知道如今因?yàn)樾畔⒉怀浞?、或者非專業(yè)人士而作出的錯(cuò)誤決定會導(dǎo)致數(shù)億美元的損失或者數(shù)千人的生命。而根據(jù)IBM沃特森在多個(gè)領(lǐng)域的應(yīng)用情況來看,我認(rèn)為人工智能在狹義領(lǐng)域所帶來的威脅是十分有限的。
我個(gè)人的看法是,我們經(jīng)常低估了鋪設(shè)人工智能科技的復(fù)雜性,因?yàn)檫@其中有著太多的不確定因素存在。
記者:IBM的超級電腦沃特森正幫助醫(yī)生更好診斷病人,如果診斷有誤的話沃特森應(yīng)該為此負(fù)責(zé)嗎?
古如德斯-巴維亞:沃特森并不給出診斷結(jié)果,而僅僅是為醫(yī)生提供數(shù)據(jù)和信息進(jìn)行參考。因此在進(jìn)行具體診斷的時(shí)候,人類醫(yī)生可以根據(jù)沃特森給出的數(shù)據(jù)以及其他一些因素作出具體的判斷??偠灾?,醫(yī)生才是最終作出診斷決定的一方。
事實(shí)上,IBM團(tuán)隊(duì)的目標(biāo)是讓沃特森可以根據(jù)病人的病史做出分析,給醫(yī)生提供關(guān)鍵信息以及可能的診斷結(jié)果,以此來大大縮短診斷時(shí)間。
弗朗斯卡-羅西:醫(yī)生一直會作出錯(cuò)誤的診斷,這并不是說他們不夠出色,而是因?yàn)樗麄儾豢赡芏聪つ骋患膊〉姆椒矫婷?。不過,諸如沃特森這樣的人工智能機(jī)器則有可能降低出錯(cuò)的幾率。
古如德斯-巴維亞:總的來說,我相信醫(yī)生能夠從沃特森處獲取信息是有益的。就我個(gè)人而言,我更加希望能夠無時(shí)無刻獲得這樣的診斷服務(wù)。