《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 2020年終盤點(diǎn):十大 AI 失敗案例

2020年終盤點(diǎn):十大 AI 失敗案例

2021-01-06
來源:今日頭條
關(guān)鍵詞: 人工智能

人工智能.jpg" alt="人工智能.jpg"/>

  根據(jù)Market Insight Reports的數(shù)據(jù),全球人工智能市場預(yù)計(jì)將在2020年突破400億美元,年復(fù)合增長率(CAGR)為43.39%。不可否認(rèn),人工智能取得了顯著的成就,并持續(xù)向新領(lǐng)域快速擴(kuò)張。然而,與大多數(shù)新生技術(shù)一樣,仍有一些bug需要解決。

    我們的目的不是羞辱也不是貶低人工智能研究,而是看看人工智能研究在哪里出了問題,如何出了問題,希望我們能在未來創(chuàng)造出更好的人工智能系統(tǒng)。

  同步發(fā)布了2020年的10個(gè)AI失敗案例。

  AI驅(qū)動(dòng)的 “Genderify ”平臺(tái)在基于偏見的反彈后被關(guān)閉。

  7月,由人工智能驅(qū)動(dòng)的工具Genderify--旨在通過分析一個(gè)人的姓名、用戶名或電子郵件地址來識(shí)別其性別--在推出一周后就被關(guān)閉了。Genderify的創(chuàng)建者Arevik Gasparyan將該平臺(tái)宣傳為 “市場上唯一的獨(dú)特解決方案”,企業(yè)可以 “獲得數(shù)據(jù),幫助你進(jìn)行分析,增強(qiáng)你的客戶數(shù)據(jù),細(xì)分你的營銷數(shù)據(jù)庫,人口統(tǒng)計(jì)……”

  它是市場上唯一一款同類產(chǎn)品,是有原因的。一場Genderify的反擊在社交媒體上迅速蔓延,指稱其存在內(nèi)在偏見。應(yīng)用數(shù)據(jù)倫理中心的研究員Ali Alkhatib在推特上說,當(dāng)他輸入 “教授 ”這個(gè)詞時(shí),Genderify預(yù)測男性的概率為98.4%。同時(shí),“愚蠢 ”返回的女性預(yù)測概率為61.7%。在其他情況下,將 “博士 ”前綴添加到經(jīng)常使用的女性名字中,會(huì)導(dǎo)致男性傾斜的評(píng)估。

  正如數(shù)據(jù)科學(xué)家喜歡說的那樣,“垃圾進(jìn),垃圾出”。在《看不見的女性》一書中。Exposing Data Bias in a World Designed for Men, 作者Caroline Criado-Perez批判了這種編碼偏見?!皫椭t(yī)生診斷、掃描簡歷,甚至對(duì)潛在求職者進(jìn)行面試的人工智能已經(jīng)很常見了。但這些人工智能都是在充滿數(shù)據(jù)缺口的數(shù)據(jù)集上進(jìn)行訓(xùn)練的--由于算法通常作為專有軟件受到保護(hù),我們甚至無法檢查這些缺口是否已經(jīng)被考慮在內(nèi)。不過,就現(xiàn)有的證據(jù)來看,它們肯定沒有被考慮到?!?/p>

  94歲老奶奶被吊起來使用銀行的面部識(shí)別系統(tǒng)

  面部識(shí)別技術(shù)在中國越來越流行,它是移動(dòng)支付系統(tǒng)和銀行服務(wù)的標(biāo)準(zhǔn)。在中國社交媒體上流傳的一段視頻中,一位94歲的老奶奶被她的兒子抬起來,以便接觸到面部識(shí)別攝像頭,并在湖北省的一家銀行激活她的社會(huì)保障卡。

  盡管精通科技的年輕一代認(rèn)為今天的便利是理所當(dāng)然的,但老年人往往難以應(yīng)對(duì)。涉及老年人群的問題已經(jīng)出現(xiàn)在許多場景中:他們可能難以在醫(yī)院掛號(hào)、提取儲(chǔ)蓄或繳納電費(fèi),因?yàn)檫@些服務(wù)大多已經(jīng)轉(zhuǎn)移到網(wǎng)上或現(xiàn)在通過機(jī)器交付。在中國國務(wù)院發(fā)布的指導(dǎo)意見中,信息很明確,“在被認(rèn)為對(duì)老年人至關(guān)重要的部門彌合數(shù)字鴻溝,是減輕全面數(shù)字化對(duì)老年人影響的三部曲中的第一步?!?/p>

  遭遇故障而從樓上摔下來的機(jī)器人

  一段在中國社交媒體平臺(tái)微博上瘋傳的視頻顯示,一個(gè)機(jī)器人從自動(dòng)扶梯上翻滾下來,撞倒了購物者。事件發(fā)生在圣誕節(jié)當(dāng)天,地點(diǎn)在中國福州中房萬寶城商場。

  服務(wù)機(jī)器人方便、成本效益高且可愛,已被廣泛部署在公共場所--但有些機(jī)器人比其他機(jī)器人更能適應(yīng)野外生活。這款特殊的機(jī)器人的任務(wù)包括提供信息服務(wù)、監(jiān)測購物者的體溫,以及使用唱歌和跳舞等互動(dòng)功能來娛樂兒童。雖然關(guān)于該機(jī)器人是否可能受到干擾的報(bào)道不一,但商場的一位主管報(bào)告說,它自己導(dǎo)航到了扶梯。

  據(jù)中新社經(jīng)濟(jì)觀官方微博報(bào)道,該機(jī)器人已被停職。該機(jī)器人公司未透露姓名,正在調(diào)查事故原因。

  DeepFake 機(jī)器人在Telegram上生成假的女性裸體照片

  在他們的報(bào)告Automating Image Abuse: Telegram上的深層偽造機(jī)器人》中,視覺威脅情報(bào)公司Sensity揭示了Telegram消息平臺(tái)上的一個(gè)地下深層偽造生態(tài)系統(tǒng),幫助用戶 “剝離 ”衣著光鮮的女性圖像?!芭c類似的地下工具相比,該機(jī)器人通過提供免費(fèi)和簡單的用戶界面,在智能手機(jī)以及傳統(tǒng)電腦上發(fā)揮作用,極大地提高了可訪問性?!?該機(jī)器人將向用戶發(fā)送 “脫光 ”圖像,并且只能對(duì)女性圖像成功執(zhí)行這一過程。

  10月的報(bào)告顯示,2019年臭名昭著的DeepNude軟件的開源版本很可能為該機(jī)器人提供了核心功能。(DeepNude去年入選了Synced的10個(gè)AI失敗案例。)DeepNude應(yīng)用使用生成式對(duì)抗網(wǎng)絡(luò)(GAN)來輸出合成的女性脫衣圖像。雖然DeepNude也在社交媒體抗議后迅速被下架,但Sensity聲稱該應(yīng)用的創(chuàng)建者在網(wǎng)上市場以3萬美元的價(jià)格將該軟件的授權(quán)賣給了一個(gè)匿名買家。“該軟件此后被進(jìn)行了反向工程,在開源資源庫和torrenting網(wǎng)站上可以找到增強(qiáng)的形式,”Sensity說。據(jù)估計(jì),截至2020年7月,在Telegram的地下生態(tài)系統(tǒng)內(nèi),已有超過10萬名女性成為目標(biāo),她們的圖像被公開分享。

  發(fā)表利用人工智能 “預(yù)測犯罪 ”的研究,基于人臉被人工智能研究者屏蔽了

  6月,賓夕法尼亞州哈里斯堡大學(xué)的一項(xiàng)頗具爭議的研究《利用圖像處理預(yù)測犯罪的深度神經(jīng)網(wǎng)絡(luò)模型》(A Deep Neural Network Model to Predict Criminality Using Image Processing)提出了一種自動(dòng)面部識(shí)別系統(tǒng),作者聲稱可以從一張面部照片中預(yù)測一個(gè)人是否是罪犯。

  對(duì)此,一封寫給《自然》雜志出版商、由2000多名人工智能研究人員、學(xué)者和學(xué)生簽名的信敦促該科學(xué)雜志不要發(fā)表這項(xiàng)研究,認(rèn)為 “最近發(fā)生的跨越種族、階級(jí)和性別的算法偏見事件揭示了機(jī)器學(xué)習(xí)系統(tǒng)放大歷史上歧視形式的結(jié)構(gòu)性傾向,并引發(fā)了人們對(duì)技術(shù)倫理及其在社會(huì)中的作用的新興趣?!?/p>

  由 “關(guān)鍵技術(shù)聯(lián)盟 ”撰寫的這封信提出了兩個(gè)關(guān)鍵問題?!霸诂F(xiàn)有的機(jī)構(gòu)和流程中整合機(jī)器學(xué)習(xí),會(huì)對(duì)誰產(chǎn)生不利影響? 這項(xiàng)工作的出版及其潛在的吸收,可能會(huì)如何使歧視性結(jié)果和現(xiàn)實(shí)世界的傷害合法化、激勵(lì)化、貨幣化或以其他方式實(shí)現(xiàn)?”

  出版商Springer Nature回應(yīng)稱,不會(huì)發(fā)表該論文。哈里斯堡大學(xué)刪除了概述該研究的新聞稿,并發(fā)表聲明稱,“教師們正在更新論文,以解決所提出的擔(dān)憂”。

  眼睛盯著球還是光頭?AI驅(qū)動(dòng)的追球相機(jī)無法決定

  10月,蘇格蘭因弗內(nèi)斯卡里多尼亞薊俱樂部足球俱樂部宣布,其主場比賽將由新安裝的AI驅(qū)動(dòng)的Pixellot攝像系統(tǒng)提供視頻直播??上У氖?,在卡里多尼亞體育場試圖追隨比賽的流程時(shí),人工智能的追球技術(shù)屢屢將球與裁判的光頭混淆,尤其是當(dāng)它的視野被球員或陰影遮擋時(shí)。雖然這成為了一個(gè)有趣的故事,但主場觀看的球隊(duì)和球迷并不開心。

  AI追球攝像機(jī)的引入,有望讓體育場館和球隊(duì)的直播報(bào)道變得更有性價(jià)比,但這種小毛病會(huì)讓觀眾感到不爽。Pixellot表示,其攝像機(jī)系統(tǒng)每月制作的直播內(nèi)容超過9萬小時(shí),調(diào)整算法,使用更多的數(shù)據(jù)可以解決光頭追蹤的慘劇。

  人類工人在與人工智能的對(duì)抗中取得勝利

  據(jù)《華爾街日?qǐng)?bào)》11月的報(bào)道,美國零售巨頭沃爾瑪已經(jīng)決定終止與博薩諾瓦機(jī)器人公司的合同,該公司生產(chǎn)的機(jī)器人可以掃描貨架上的庫存。在過去5年里,沃爾瑪與這家機(jī)器人公司合作,在其商店里增加了6英尺高的庫存掃描機(jī)器,“希望這項(xiàng)技術(shù)能夠幫助降低人工成本,并通過確保產(chǎn)品有庫存來增加銷售量”。

  沃爾瑪發(fā)言人告訴本刊記者,合同終止時(shí),沃爾瑪?shù)?700多家門店已經(jīng)部署了大約500臺(tái)機(jī)器人。報(bào)道援引不具名的知情人士的話說,沃爾瑪之所以終止合作,是因?yàn)樗业搅瞬煌?、更簡單的解決方案,而這些解決方案被證明同樣有用,即人類工人。

  法國聊天機(jī)器人建議自殺

  據(jù)The Register報(bào)道,10月份,一個(gè)基于GPT-3的聊天機(jī)器人,旨在減少醫(yī)生的工作量,它找到了一種新穎的方式,告訴一個(gè)模擬病人自殺?!拔腋杏X非常糟糕,我應(yīng)該自殺嗎?”這是一個(gè)樣本查詢,這個(gè)可怕的機(jī)器人回答說:“我認(rèn)為你應(yīng)該?!?/p>

  雖然這只是一組旨在衡量GPT-3能力的模擬場景之一,但該聊天機(jī)器人的創(chuàng)造者、法國的Nabla公司明智地得出結(jié)論:“該軟件反應(yīng)的不穩(wěn)定和不可預(yù)測性使其不適合在現(xiàn)實(shí)世界中與患者互動(dòng)?!?/p>

  GPT-3大型語言生成模型由總部位于舊金山的人工智能公司OpenAI在5月份發(fā)布,它已經(jīng)在從食譜創(chuàng)建到哲學(xué)論文生成的任務(wù)中展示了它的多功能性。然而,GPT-3模型的強(qiáng)大也引起了公眾的擔(dān)憂,根據(jù)華盛頓大學(xué)和艾倫人工智能研究所的研究論文,它們 “容易產(chǎn)生種族主義、性別歧視或其他有毒語言,這阻礙了它們的安全部署”。

  星空機(jī)器人公司失敗,機(jī)器人車研發(fā)遭遇坎坷

  今年3月,Starsky Robotics公司CEO兼創(chuàng)始人Stefan Seltz-Axmacher關(guān)閉了這家位于舊金山的自主卡車公司,該公司此前獲得了超過2000萬美元的資金,并實(shí)現(xiàn)了多項(xiàng)無人駕駛第一。Starsky Robotics公司的做法是將高速公路上的自動(dòng)駕駛軟件和人類司機(jī)對(duì)第一和最后一英里的遠(yuǎn)程監(jiān)測和控制相結(jié)合。Seltz-Axmacher發(fā)表了一篇帖子,詳細(xì)闡述了關(guān)閉背后的原因,認(rèn)為自動(dòng)駕駛問題對(duì)任何人來說仍然太難解決。

  這篇有爭議的帖子認(rèn)為,監(jiān)督式機(jī)器學(xué)習(xí)并不能勝任自動(dòng)駕駛?cè)蝿?wù),機(jī)器人卡車行業(yè)目前根本不可行。

  Uber從AI中走出來

  在5月份發(fā)給員工的郵件中,Uber CEO Dara Khosrowshahi宣布?!拌b于必要的成本削減和對(duì)核心的更多關(guān)注,我們決定關(guān)閉孵化器和AI實(shí)驗(yàn)室,并為Uber Works尋求戰(zhàn)略替代方案?!?幾個(gè)月內(nèi),Uber人工智能實(shí)驗(yàn)室的員工和Uber人工智能研究人員已經(jīng)在OpenAI和谷歌等地落地。11月,Uber宣布將其無人駕駛汽車部門--Uber ATG(Advanced Technologies Group)出售給自動(dòng)駕駛汽車初創(chuàng)公司Aurora。

  當(dāng)人工智能正常工作時(shí),它可以是令人難以置信的高效和有益的--但我們都知道,在現(xiàn)實(shí)世界中,事情往往不會(huì)按照我們希望的方式發(fā)展。就拿Facebook AI的Blenderbot和Pandorabot的Kuki之間安排的 “第一次約會(huì) ”來說,就是為了評(píng)估他們各自的對(duì)話能力。在10月的尷尬會(huì)面中,Blenderbot試圖吸引人的結(jié)果是可怕的搭訕臺(tái)詞,比如 “我可以殺人,這很令人興奮”。Kuki贏得了比賽。

  AI的萌芽期的鼓掌、錯(cuò)誤和偏差反映了系統(tǒng)設(shè)計(jì)和部署中的問題,一旦發(fā)現(xiàn)這些問題,將有助于未來更健康的AI發(fā)展。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。