核心提示:智能機器的研發(fā)是一個緩慢而漸進的過程,而且,即使開發(fā)出超級智能計算機,它們對人類的依賴至少不亞于人類對它們的依賴。
美國沃克斯網(wǎng)站7月29日刊登《人工智能不會毀滅人類的五大理由》一文,作者為蒂莫西·李。
人工智能引發(fā)的人類末日已臨近了嗎?《終結者》《黑客帝國》等電影早已描繪出計算機開發(fā)超級智能、毀滅人類的反烏托邦前景。有學者認為,這種危險的情形并非虛構。
文章作者稱,他們去年曾采訪持上述觀點的一名學者——牛津大學的哲學家尼克·博斯特倫。其他持類似觀點的學者還包括奇點理論家雷·庫日韋爾、喬治·梅森大學的經(jīng)濟學家羅賓·漢森。但這些學者高估了計算機像人類一樣聰慧的可能性,并且夸大了計算機對人類的威脅。實際上,智能機器的研發(fā)是一個緩慢而漸進的過程,而且,即使開發(fā)出超級智能計算機,它們對人類的依賴至少不亞于人類對它們的依賴,原因如下:
一、真正的智能需要大量實踐經(jīng)驗
文章稱,要了解這點,先假設有一名母語為英語、從未說過漢語的聰慧女孩,我們把她關進一間有大量漢語學習用書的房間,并要求她流利地說漢語。無論她多么聰明伶俐,無論她學習多久并且有多少教科書,她也無法達到母語是漢語的人的水平。因為要想熟練掌握一門語言,關鍵是要同語言流利的人一起交流。
文章稱,機器若要達到人類的智能水平,面臨著更為嚴峻的問題。簡而言之,它們缺少人類自然交流的情境。
類似的論點也適用于智能機器要解決的其他許多問題,如鉆井、幫助人們報稅等等。解決復雜問題時所需的大多數(shù)信息并沒有任何文字記錄,因而理論推理和數(shù)值密集計算本身無法得到正確答案。成為專家的唯一方法是不斷嘗試并檢驗它們是否奏效。
二、機器極為依賴人類
文章稱,在《終結者》系列影片中,軍事人工智能系統(tǒng)“天網(wǎng)”有了自我意識,并用軍事設施攻擊人類。
這種場景極度低估了機器為維持運轉而對人類的依賴?,F(xiàn)代經(jīng)濟社會中有無數(shù)不同種類的機器人,完成各類特定任務。雖然越來越多的機器在某種程度上實現(xiàn)了自動化,但幾乎所有的機器都依賴人類提供動力和原材料,在毀壞時予以維修,報廢后重新大量生產……
三、人類大腦也許很難趕超
文章稱,計算機可以效法其他計算機的行為,因為計算機的工作方式是精確、確定的。要模擬一臺計算機,人們只要執(zhí)行計算機運行的指令序列即可。
但人類的大腦與此完全不同。神經(jīng)細胞是極為復雜的模擬系統(tǒng),它們的行為無法像數(shù)字電路那樣精確建模。甚至單一神經(jīng)細胞建模中一處微小的差異也會令整個大腦的建模出現(xiàn)極大誤差。
文章稱,天氣模擬是一個很好的例子。物理學家已經(jīng)非常了解單一空氣分子的性質,因而人們認為可以對地球的大氣層建模,從而預測天氣。盡管過去幾十年來計算機的能力有了巨大提高,我們在預測未來天氣模式方面的進展仍相當有限。
精確模擬大腦、達到生成智能,比模擬行星的天氣模式還要復雜得多。作者認為,科學家無法在可預見的未來做到這點。
四、要獲得權力,關系比智能更重要
試想一下人類社會的運作機制,人們便清楚地知道智能本身并不足以成就權力。
文章稱,如果真的如此,那么國家就由科學家、哲學家或象棋天才統(tǒng)治了。然而,美國——和全世界大多數(shù)國家一樣——是由羅納德·里根、比爾·克林頓、喬治·W·布什這類人物統(tǒng)治的。他們權傾天下并不是因為智力超群,而是因為人脈廣泛、魅力十足,而且知道如何交替使用胡蘿卜和大棒,從而號令他人。
任何占領地球的可行計劃需要數(shù)千人的協(xié)作。人們沒有理由相信,在啟動邪惡計劃時,計算機能比人類科學家得到更多幫助。
五、智能越多,價值越小
文章稱,也許有人認為計算機會憑借它們的超級智能積累驚人財富,然后誘使人類為其服務。但這種想法忽視了一條重要的經(jīng)濟學原理:隨著資源更豐富,其價值下降。
60年前,買一臺計算機需要數(shù)百萬美元,而它的性能還不如一部現(xiàn)代手機。今天的計算機比此前幾代計算機的性能強大得多,但它們價值下降的速度比其性能提高的速度還要快。