3月18日,斯坦福以人為本AI研究院(Stanford HAI)成立了。斯坦福利用HAI評估智能機器對人類生活所造成的影響,包括機器自動化取代了部分人力工作,算法引起的性別和種族偏見,醫(yī)療、教育和司法系統(tǒng)中存在的AI問題。在研究院的發(fā)布會上,聯(lián)合主任李飛飛強調(diào)了HAI需要秉持“以人為本”的初衷,提出了三點:
1)發(fā)展AI的過程中必須考慮AI對人類社會的影響;
2)AI的應(yīng)用是為了賦能人類,而非取代人類;
3)人工智能應(yīng)該更多融入人類智慧的多樣性、差異性和深度。
技術(shù)飛速發(fā)展,人工智能對教育、科技、衛(wèi)生和可持續(xù)發(fā)展等方面都起了關(guān)鍵性助力作用。但同時,人工智能也給人類提出了一系列復(fù)雜的挑戰(zhàn)。關(guān)于上述三個原則,李飛飛希望:智能機器更加以人為本,懷有善意。
什么是“以人為本”?
根據(jù)李飛飛提到的三點原則進行解讀。第一點,作為技術(shù)的發(fā)明者,人類應(yīng)該正確的引導(dǎo)AI的發(fā)展,更好地服務(wù)人類。比如在數(shù)據(jù)安全、隱私保護、社會倫理、知識產(chǎn)權(quán)等各個問題上,由世界性的權(quán)威組織制定嚴格的標準和法規(guī),減少AI帶來的潛在的威脅,這已經(jīng)基本達成共識。
關(guān)于第二點,自人工智能誕生以來,“人類會不會被AI取代”、“AI會不會毀滅世界”等聳人聽聞的問題時常被提起。作為一項技術(shù),AI應(yīng)當是中性的,技術(shù)是用來服務(wù)人類的。從大的方向來看,AI不斷進化它的判斷和感知技能,在比較簡單、重復(fù)性、危險性的工作上幫助人類,而人類的能力可以更加專注于更高層次的人物,偏向創(chuàng)造性和感性的部分,最終更有意義。
最后,近年來,AI發(fā)展出了計算機視覺、語音識別等能力,但在實際生活中,AI遠遠落后于神經(jīng)元、人類智能的豐富和靈活性。例如,阿爾法狗擊敗了世界冠軍,但它無法從勝利中感受到喜悅,也不會在勝利后產(chǎn)生擁抱心所愛之人的渴望。例如,AI可以在一張照片中得知圖片中的內(nèi)容是什么,但是不能輕易識別圖片背后的故事的因果關(guān)系。人工智能需要變得更有情感意識,加強對情感和情緒的認知,不僅能夠捕捉對人的情感,更需要讓機器跟人進行情感的表達。
人性化AI無處不在
我國的人工智能正處在快速發(fā)展的時期,技術(shù)攻關(guān)和產(chǎn)業(yè)應(yīng)用近幾年來發(fā)展勢頭迅猛,目前已經(jīng)被廣泛應(yīng)用于語音識別、計算機視覺、機器人、語言處理等領(lǐng)域,代表性產(chǎn)品包括曠視科技的“FaceID在線人臉身份驗證”、極鏈科技的“VideoAI視頻應(yīng)用系統(tǒng)”、優(yōu)必選的“個人智能機器人悟空”等。隨著AI更加深度、多樣性,具有情感的細膩,將在產(chǎn)業(yè)應(yīng)用中帶來更多維度的發(fā)展。
例如,使用情感AI幫助人們利用強大的技術(shù)建立與其他人的聯(lián)系在醫(yī)療行業(yè)已經(jīng)逐步應(yīng)用。在自閉癥這一醫(yī)學難癥中,AI技術(shù)能夠?qū)崿F(xiàn)與自閉癥兒童進行反饋,集成反饋的數(shù)據(jù),為定制治療方案提供支撐。利用AI機器可以促進自閉癥兒童和日常接觸人之間的溝通,教會自閉癥的人讀懂他人細微的情緒;另外,還能夠幫助身邊的人更好的識別自閉癥兒童情緒。
AI在聽說讀寫、推理等方面的能力、效率和準確度持續(xù)提升,也可以為視覺、聽覺、感知、學習、行動能力有所不便的人群,打造出人工智能應(yīng)用和產(chǎn)品。例如,利用微軟的人工智能技術(shù)和認知服務(wù)中的Microsoft Translator 服務(wù),實現(xiàn)自動語音識別解決方案,可以幫助聽力受損人群無障礙溝通。AI技術(shù)有希望幫助世界各地超過10億殘障人士,打造一個完整、平等、便利的世界。
類似的應(yīng)用在教育場景下,AI也能發(fā)揮無限量的作用。AI可以通過學生的面部表情和姿勢對情緒作出有根據(jù)的判斷,衡量每個學生的理解程序,可以幫助老師因材施教。
人類準備好了嗎?
隨著人類越來越依賴于機器智能,我們的責任觀念將會變成什么樣?人工智能的生成物是否為作品,是否有著作權(quán)的問題?自動駕駛的安全性、責任認定等法律問題不斷涌現(xiàn),人工智能干預(yù)的事故應(yīng)當如何定責?甚至是否賦予機器人以虛擬的“法律主體資格”?還有很多重要的應(yīng)用領(lǐng)域,如安防,如果系統(tǒng)出現(xiàn)原則性決策失誤,如何判定?如何讓人工智能可解釋、可說明?
智能機器觸發(fā)的人們對隱私、安全的擔憂,該如何規(guī)避?AI的大幅度應(yīng)用對就業(yè)的影響該如何權(quán)衡?在人工智能不斷走進生活的過程中,人類真的準備好了嗎?
這需要政策制定者、法律學者、倫理學家、科學家,大家一起尋找答案。但現(xiàn)狀很顯然,人工智能安全健康發(fā)展法規(guī)和倫理道德研究尚且不足,相應(yīng)的法律法規(guī)以及道德規(guī)范要求還不健全,我們還不能有效防范控制潛在的安全風險??茖W向善,AI以人為本,我們需要考慮的事情還很多。
小結(jié):
與所有顛覆性技術(shù)一樣,新一代人工智能具有高度的不確定性,可能有很長的一段時間是不完美的,需要政府、社會、企業(yè)共同努力,規(guī)范人工智能的發(fā)展。但有一點是很肯定的,技術(shù)的產(chǎn)生,是為了讓人類生活的更好,我們要幫助AI更加人性化,擁有更好的未來。