Cassie Kozyrkov在過去五年里在谷歌擔任過各種各樣的技術職務,但她現在擔任著“首席決策科學家”這個有點奇怪的職位?!皼Q策科學是數據和行為科學的交叉學科,涉及統(tǒng)計學、機器學習、心理學、經濟學等。
實際上,這意味著Kozyrkov幫助谷歌推動了一個積極的人工智能議程——或者,至少,讓人們相信人工智能并不像許多人宣稱的那么糟糕。
焦慮
“機器人正在偷走我們的工作”,“人工智能是人類生存的最大威脅”,類似的言論已不絕如耳,尤其在過去幾年里,這種擔憂變得更加明顯。
人工智能對話助手滲入我們的家中,汽車和卡車自動駕駛似乎指日可待,機器可以在電腦游戲中打敗人類,甚至創(chuàng)意藝術也不能幸免于人工智能的沖擊。另一方面,我們也被告知枯燥重復的工作可能會成為過去。
人們對自己在自動化世界中的未來感到焦慮和困惑,這是可以理解的。但是,根據Kozyrkov的說法,人工智能只是人類努力方向的延伸。
“人類的故事就是自動化的故事,” Kozyrkov表示?!叭祟惖氖吩娋褪且咽虑樽龅酶谩獜挠腥四闷鹨粔K石頭砸向另一塊石頭的那一刻起,因為事情可以做得更快。我們是一個制造工具的物種,我們反抗苦差事?!?/p>
對人工智能潛在恐懼的原因是我們覺得它可以做得比人類更好,但這種擔心并不成立。Kozyrkov認為,所有工具都比人類好。理發(fā)師用剪刀理發(fā),因為用手把頭發(fā)剪出來是一種不太理想的體驗。印刷機使文本的大規(guī)模生產成為可能,其規(guī)模是人類用鋼筆無法復制的。但筆本身就開啟了一個充滿機遇的世界。
“我們所有的工具都比人類好——這就是工具的意義所在,” Kozyrkov繼續(xù)說道。“如果沒有工具你可以做得更好,為什么要使用工具呢?如果你擔心電腦的認知能力比你強,那我要提醒你,你的筆和紙在記憶方面比你強。我的水桶比我更擅長裝水,我的計算器比我更擅長把六位數相乘。人工智能在某些方面也會變是如此?!?/p>
當然,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類更擅長做事。對許多人來說,真正的危險在于,任何惡意實體可以肆無忌憚地對我們的一舉一動進行跟蹤和微觀管理,從而在我們身上投下反烏托邦的陰影——幾乎不費任何力氣就能實現一個秘密的宏偉愿景。
其他的擔憂與算法偏見、缺乏足夠的監(jiān)督以及最終的末日場景有關:如果某件事發(fā)生了嚴重且無意的錯誤,該怎么辦?
偏見
研究人員已經證明了人臉識別系統(tǒng)中固有的偏見,比如亞馬遜的Rekognition。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯邦機構解決算法偏見的問題,比如美聯儲如何處理貨幣貸款歧視。
但人們對人工智能如何真正減少人類現有偏見的關注少之又少。
舊金山最近宣稱,它將使用人工智能來減少對犯罪嫌疑人的偏見,例如,自動修改警方報告中的某些信息。
在招聘領域,風投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才。該公司聲稱,人工智能還有助于將人類偏見降到最低。Fetcher通過在線渠道自動尋找潛在候選人,并使用關鍵字來確定個人可能擁有的技能,而這些技能并沒有列在個人資料中。該公司將其平臺宣傳為消除招聘偏見的一種簡單方法,因為如果你訓練一個系統(tǒng)遵循一套嚴格的標準,只關注技能和經驗,性別、種族或年齡等因素將不會被考慮在內。
Fetcher聯合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,我們可以利用技術來解決多種形式的招聘偏見,幫助公司建立更加多樣化和包容性的組織。”
但對人工智能系統(tǒng)性歧視的擔憂,是許多人工智能領域的首要議題。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),研究人員正致力于在不影響預測結果準確性的前提下,減少人工智能中的偏見。
人為因素
最重要的是,人工智能還處于相對起步階段,我們仍在研究如何解決算法偏見等問題。但Kozyrkov表示,人工智能所顯示的偏見與現有的人類偏見是一樣的——用于訓練機器的數據集與用于教育人類的教科書完全一樣。
“數據集和教科書都有人類作者——它們都是根據人類的指令收集的,”她說?!叭绻憬o你的學生一本由一位懷有嚴重偏見的作者編寫的教科書,你認為你的學生不會染上同樣的偏見嗎?”
當然,在現實世界中,受人尊敬的同行評審的期刊或教科書應該有足夠的監(jiān)督來對抗任何明顯的偏見——但如果作者、他們的數據源以及鼓勵學生閱讀教科書的老師都有同樣的偏見呢?任何陷阱可能要到很久以后才會被發(fā)現,到那時想要阻止任何不良影響就太晚了。
因此,Kozyrkov夫認為,“視角的多樣性”對于確保偏見最小化是必不可少的。
她說:“你對數據的關注越多,你就越有可能發(fā)現那些潛在的不良案例。所以在人工智能中,多樣性是必須擁有的。你確實需要從不同的角度來看待和思考如何使用這些例子來影響世界?!?/p>
測試
與學生考試的現實世界類似,在部署人工智能算法和機器學習模型之前測試它們,是確保它們能夠執(zhí)行設定的任務。
人類學生如果被問到他們事先學習過的問題,他們可能在考試中表現得非常好,但這可能是因為他們有很好的記憶力,而不是對手頭的科目有一個完整的理解。為了測試更廣泛的理解能力,需要給學生一些問題,讓他們能夠應用所學知識。
機器學習是在同樣的前提下運行的——存在一種被稱為“過度擬合”的建模錯誤,在這種錯誤中,一個特定的函數與訓練數據過于緊密地對齊,可能會出現誤報?!半娔X的記憶力真的很好,” Kozyrkov說,“所以你真正測試他們的方法是給他們一些真實的新東西,他們不可能記住的。如果成功了,那就是真的成功了?!?/p>
Kozyrkov將安全有效的人工智能的四項原則與教授人類學生的四項基本原則進行了比較,基本是類似的:
明智的教學目標
相關和多樣化的觀點
精心制作的測試
安全網
不過,即使是最精心設計、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯——事實上,系統(tǒng)越好,在某些方面就越危險,就像人類學生一樣。
“即使你的學生真的很好,他們也可能犯錯誤,” Kozyrkov說,“事實上,在某些方面,差學生比好生更危險,因為有了差生,你已經習慣了他們犯錯誤,所以你已經有了安全網。但是對于好生,如果你從來沒有見過他們犯錯誤,你可能會認為他們從來沒有犯過錯誤。這可能只會讓你花費更長的時間,然后就是災難性的失敗。”
這種“安全網”可以采取多種形式,但它往往涉及建立一個單獨的系統(tǒng),而不是“過分信任你的好學生,” Kozyrkov說。在一個例子中,一個房主配置了他的智能攝像頭和鎖系統(tǒng),如果它發(fā)現了一張不熟悉的面孔,就會啟動它——但有點滑稽的是,它錯誤地將房主識別為他T恤上的蝙蝠俠形象,并拒絕他進入。
所有這一切都指向一個可能對許多人來說顯而易見但或許值得重復的觀點:人工智能是其創(chuàng)造者的反映。因此,我們需要集中精力實現系統(tǒng)和檢查,以確保那些構建機器的人(“教師”)是負責任的。
圍繞“機器教學”的重要性,人們達成了越來越多的共識。微軟等公司最近表示,人工智能的下一個前沿領域將是利用人類專業(yè)人士的專業(yè)技能來訓練機器學習系統(tǒng),而不管專家是否具備人工智能知識或編程能力。
“是時候讓我們把重點放在機器教學上,而不僅僅是機器學習了,” Kozyrkov指出?!安灰尶苹眯≌f的花言巧語分散你對人類責任的注意力,從一開始就關注參與其中的人類。從領導者設定的目標,到工程師編寫、分析師和決策者核查的數據集,再到統(tǒng)計學家進行的測試,再到可靠性工程師構建的安全網,所有這些都包含了很多人為因素?!?/p>