近幾年,關于發(fā)展還是控制人工智能的“辯論”,在科技界不斷升溫,矛盾愈演愈烈。甚至,一批大腕“聯(lián)名上書”提倡控制人工智能的發(fā)展。這里不僅有斯蒂芬·霍金,還有微軟創(chuàng)始人比爾·蓋茨、特斯拉汽車公司與美國太空探索技術公司CEO伊隆·馬斯克等。
無論基于怎樣的行業(yè)發(fā)展考慮,也不管人類對人工智是否將采取控制措施,毋庸置疑的是,人工智能的發(fā)展將是一種必然的趨勢。那么,人工智能發(fā)展到最后,到底會不會像大家所擔心的那樣,成為人類的“終結者”呢?如果預言真的成為現(xiàn)實,那又會是誰決定了人工智能走上這條不歸路呢?
人工智能PK人類智慧
不管你有多少懷疑,有多么不愿意承認,在將來的某一天,人工智能都有非常大的可能超越人類智慧。這我們可以從人腦與機器在“硬件”和“軟件”兩個維度進行比較分析:
一、 “硬件”:生理學上的腦容量
據(jù)研究表明:人的聰明程度跟大腦容量息息相關。美國弗吉尼亞州立大學的工業(yè)和組織心理學家邁克爾·麥克丹尼爾(Michael McDaniel)曾通過影像技術測量大腦,證明大腦越大或腦容量與體表面積的比例越高的人越聰明,當然,這當中必須排除個別因大腦變異或腦積水導致增大腦容量等特殊情況;而且這個結論適用于所有年齡和所有性別群體。我們且不論該說法是否百分之百精準,有一點是明確的,那就是人的腦容量即便再大,在發(fā)展的一定時期都存在一定限度內(nèi)的峰值。
在200萬年前,人的腦容量大約為600毫升;到了早期直立人時期,人腦的腦容量達到了900毫升;而到了現(xiàn)如今,人類的腦容量可以達到1500毫升左右。在這個過程中,隨著大腦的逐步增大,人類的聰明和智商呈跨躍式發(fā)展。我們有理由相信,如果給予足夠長的時候,人類大腦的智慧增長還是有非常大的空間的。但是,基于目前的情況,囿固于當前的人類本身這個載體,卻很難實現(xiàn)腦容量的無限大。
而且,從目前的現(xiàn)實狀況來看,人類大腦面對當下海量的數(shù)據(jù)信息已經(jīng)顯得有點手足無措。一方面,資訊的更新速度在以人類閱讀能力的幾何倍數(shù)級增長;另一方面,我們的大腦在已經(jīng)到來的物聯(lián)網(wǎng)、大數(shù)據(jù)時代,已經(jīng)難以招架海量的數(shù)據(jù),更別說準確地對這些數(shù)據(jù)進行分析判斷從中尋找所要的答案。這必然致使人類在發(fā)展的道路上,顯得越來越迷茫且焦慮。
基于機器設備的人工智能則可以突破人類大腦的這個局限。從“硬件”容量來說,人工智能對信息數(shù)據(jù)的存儲可以趨近于無窮大,當然這也是一種相對理想狀態(tài)。而從記憶速度與提取效率來說,尤其在大數(shù)據(jù)的分析與測算基礎上,人工智能對所存儲信息的調(diào)取會越來越迅速,而且不存在“遺忘”一說。
這讓我們有理由相信:單單從“硬件”方面來考慮,人工智能完全有可能比人類更聰明。
二、“軟件”:思維能力共享
人腦除了具有信息的獲取和存儲能力之外,更重要的還是在所存儲信息的基礎上進行推理、判斷、分析問題等功能,也就是我們通常講的人的思維和主觀能動性,人腦“聰明”的真正考量標準。這也是很多人爭議的焦點:人工智能真的會有類似于人類的思維嗎?
去年的今天,英國媒體刊登的署名安賈娜·阿胡賈的文章稱,科學家已經(jīng)發(fā)明出擁有思考能力的機器,可以與人類進行文本會話,其自然語言邏輯性之強,使得人類已無法分辨自己是與人類交談還是與一個機器。而且,艾倫·圖靈也曾提出,如果一臺機器的“交流”能力足以讓用戶以為自己是在與一個真正的人互動,那么這臺機器可以說是擁有思考能力。而已經(jīng)有偽裝成烏克蘭少年的超級計算機通過了人工智能的圖靈基準測試。
異曲同工,我國的“百度大腦”已經(jīng)擁有200億個參數(shù),構造起了世界上最大的深度神經(jīng)網(wǎng)絡,已經(jīng)具備了2~3歲孩子的智商。根據(jù)摩爾定律,百度大腦再繼續(xù)做十年、二十年的話,很有可能就會比人腦還要聰明。因為技術的發(fā)展可以使得人的智力越來越大程度地被電腦所模仿,而融入了人工智能的電腦不僅可以達到人腦的智力,還可以具備人腦的邏輯能力。
人工智能,人類的“終結者”?
今天,不斷發(fā)展的科技水平,越來越清晰地告訴人類:人工智能超越人類智慧,即便還有相當漫長的一段路要走,但它就在未來的某一天等著我們。這從人類已經(jīng)表現(xiàn)出來的,對于未來人工智能發(fā)展的擔憂與恐懼中,也可見一斑。
去年年底,霍金在接過科幻作品接力棒的時候,就直接給出了一個警告:人工智能的發(fā)展可能意味著人類的末日。在今年的博鰲亞洲論壇上,比爾·蓋茨再次提醒,“人工智能方向是對的,但不能操之過急,不要輕易進入未知的領域?!?/p>
人工智能的發(fā)展,真的會導致人類的“終結”嗎?這種惡的想象,是必然的嗎?其實,我覺得人類關于人工智能發(fā)展控制的需求,與其說是對機器人強大后對人類“叛變”的焦慮,倒不如說是人類對于科技發(fā)展后,人類心理所潛在的“惡”的恐懼。人類糾結于有那么一天,機器人會反抗他們的“人類”造物主,以致用他們超越人類的能力將人類趕盡殺絕。而事實上這反映出的,只是人類對自身內(nèi)心深處那一股“惡”的力量的不可控。
早在1942年,科幻作家艾薩克·阿西莫夫創(chuàng)造了著名的“機器人三大定律”:機器人不得傷害人類或坐視人類受到傷害、機器人必須服從人類的命令、在不違背第一和第二法則的前提下機器人必須保護自己。基于此,人類與機器人之間保持著一定程度的“正能量”關系。但是,這個追求“人機和諧、社會和諧”的三大定律,更確切地說,只是人類單方面的限令,希望以此讓機器人順理成章、理所當然地做人類的奴役?;蛘哒f,人類一方面希望擁有人工智能的機器人能夠非常聰明,并且?guī)椭⑻娲覀兺瓿梢幌盗形覀冏陨黼y以完成的事情;另外一方面又希望這個機器人很“老實”,永遠無條件忠誠于人類的這樣一種矛盾的處境。
所以,一旦有人感覺到迅速發(fā)展的高科技超越了他們的可控范疇,那么焦慮和絕望的悲觀“科技恐懼”便油然而生。而這種心理,從本質(zhì)上來講,并不是來源于智能機器人的威脅,即使是,那也是基于人類設定的前提之下的想象。真正的威脅,其實還是來自于人類自身。就像《2001:太空漫游》中的HAL-9000,替人類說出了長久以來三緘其口的信仰問題:對造物主的質(zhì)疑,人類是否可以反抗上帝。
人類的明天,誰來主載?
就人工智能本身而言,更多的就像是一個人類的小孩,它的成長與變化首先取決于人類給予的環(huán)境。在影片《人工智能》中,未來世界人性泯滅,而機器男孩戴維則成為了“人性”的代表,他善良、真誠、渴望被愛。在《霹靂五號》中,Johnny5被雷擊后“活”了過來,正直、幽默、熱愛生命的心靈讓人動容。同時,還有我們非常熟悉的哆啦A夢、阿童木以及阿拉雷等卡哇伊的機器人形象。這些都是人類的作品——“人工智能”的一種表現(xiàn),它們傳達的是接受于人類所傳遞給他們的信息。就如部分科學家所言,在未來,人工智能會成為“人類智慧的容器”;而人工智能的走向同樣受到人類主觀能動性的影響。
在《終結者》中,“天網(wǎng)”本身是一個超級武器,人類給其灌輸了要消滅一切威脅的指令,它也堅決地執(zhí)行了。而當“天網(wǎng)”發(fā)動啟示錄戰(zhàn)爭要毀滅人類的時候,其根本原因也是因為人類感到害怕,要永遠關掉它,而這被“天網(wǎng)”認定為是一種威脅。在《復仇者聯(lián)盟:奧創(chuàng)紀元》中,人工智能奧創(chuàng)以“殺戮”的方式,忠實地履行著創(chuàng)造者維護和平的意愿。因為在它看來,這手段最行之有效。
同樣,在《超能查派》里,具有自我思維的機器人查派,剛被植入程序的時候就像一個新生兒,它的成長與改變無不源于環(huán)境對于“人工智能”的影響。而在這個環(huán)境中起最大作用的,就是人類。影片中,由迪恩研發(fā)控制的警用機器人很好地維護著社會治安。而結果出問題的,不是人工智能查派或警用機器人,是人類自己文森特。如果有一天,人類真的被人工智能所“終結”,那么,真正的罪魁禍首必將也是人類自己的自私、貪婪與邪惡,人工智能充其量只是一種工具和手段。
就如中國幾千年文化中一直所爭論的:到底是“人之初,性本善”,還是“人之初,性本惡”,或許這還將會在人工智能領域再次延續(xù)著。因為人工智能是善是惡,還是取決于人類這個環(huán)境。同樣,人工智能最終是“融入”還是“叛變”人類,也取決于人類自身。我認為:與其說是人工智能對人類的生存和發(fā)展構成威脅,還不如理解為,人工智能其實是對人類人性的一種挑戰(zhàn)。