據(jù)路透社報道,亞馬遜已經(jīng)延長了對自家人臉識別軟件用于執(zhí)法的禁令,”直到另行通知“ 。
該禁令之前設(shè)定為期一年,原定于六月到期。亞馬遜沒有立即回應(yīng)為何延長這一禁令。
早在 2018 年,亞馬遜員工就曾力促亞馬遜縮減這一項目的規(guī)?!麄冋J(rèn)為,有記載的人臉識別種族偏見,可能加劇當(dāng)?shù)鼐綄ι贁?shù)族裔的暴力行為。
亞馬遜一直為該項目辯護(hù),直到去年6月,當(dāng)時抗議活動的壓力越來越大,亞馬遜這才宣布,面向警方客戶的服務(wù)暫停一年。
Rekognition屬于AWS所提供的一項服務(wù),其實許多亞馬遜在云計算領(lǐng)域的競爭對手都具有類似的技術(shù)。就在亞馬遜做出承諾的第二天,微軟也宣布了類似聲明,稱將不會向當(dāng)?shù)鼐匠鍪燮涿娌孔R別服務(wù)。
而IBM在同一周內(nèi)也表示,將停止開發(fā)或研究面部識別技術(shù);谷歌則表示不會向任何人提供面部識別技術(shù)的商用。
去年夏天,關(guān)于人臉識別技術(shù)的道德性問題甚囂塵上。麻省理工學(xué)院媒體實驗室的研究員Joy Buolamwini和微軟研究院的Timnit Gebru,都致力于揭示人臉識別技術(shù)在種族偏見方面的偏見。兩人做了不少基礎(chǔ)性工作,其中有一篇共同撰寫的論文被廣泛引用。
該論文指出,包括IBM和Microsoft在內(nèi)的主要科技公司,他們的人臉識別系統(tǒng),用于識別膚色較黑的人的錯誤率,比識別膚色較白的人要高幾十個百分點。根據(jù)《紐約時報》的一份報告,問題部分在于用于訓(xùn)練系統(tǒng)的數(shù)據(jù)集,其中絕大多數(shù)可能是男性和白人。
在2019年的另一項研究中,Buolamwini和另一位學(xué)者分析了Rekognition,發(fā)現(xiàn)亞馬遜的系統(tǒng)也存在重大問題,無法識別膚色較黑的人的性別,以及誤以膚色較黑的婦女為男性。研究發(fā)現(xiàn),該系統(tǒng)在分析膚色較淺的人的圖像時的錯誤率幾乎為零。
在之前首次宣布禁用于執(zhí)法時,亞馬遜曾表示,希望國會利用這段服務(wù)暫停的時間,來調(diào)整人臉識別技術(shù)的法律法規(guī)。
當(dāng)時亞馬遜在聲明中曾表示,”我們主張政府制定更嚴(yán)格的法規(guī)來管理人臉識別技術(shù)使用的道德問題,期望這一為期一年的暫停,可以使國會有足夠的時間出臺適當(dāng)?shù)囊?guī)則,并且我們隨時準(zhǔn)備根據(jù)要求提供幫助。“
但到目前為止,還沒有聯(lián)邦立法解決警方與人臉識別技術(shù)的矛盾,但是許多州或地方政府已經(jīng)通過了相關(guān)規(guī)定,決定減少這一技術(shù)的使用。
2019年5月,舊金山成為美國第一個禁止政府使用人臉識別的城市,奧克蘭緊隨其后;俄勒岡州和緬因州波特蘭的城市也通過立法。
去年12月,馬薩諸塞州有過一項類似的禁令草案,但當(dāng)時并未獲得通過,不過最近通過了一項修改后的法案,對警方使用人臉識別一事增加了一些限制。
去年7月,紐約州立法機構(gòu)剛剛通過了一項法令,禁止在學(xué)校中使用人臉識別和其他生物特征識別技術(shù),直至 2022 年。
另外,就在上個月,歐盟也發(fā)布了一項監(jiān)管人工智能使用的提案:《關(guān)于”歐洲議會和理事會條例:制定人工智能的統(tǒng)一規(guī)則(人工智能法案)并修訂某些聯(lián)盟立法“的提案》。
該提案規(guī)定了企業(yè)和政府應(yīng)如何使用人工智能技術(shù),長達(dá)108頁,對人工智能在一系列活動中的使用都進(jìn)行了限制,其中就包括限制警方在公共場合使用人臉識別軟件。
這些領(lǐng)域因其可能對人們的安全或基本權(quán)利造成威脅,而被歐盟視為”高風(fēng)險“領(lǐng)域。不過,出于國家安全和其他目的的應(yīng)用,可能會有一些豁免權(quán)。根據(jù)該提案要求,歐盟將有可能對違規(guī)最嚴(yán)重的公司處以相當(dāng)于其全球年銷售額6%的罰款。