《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 可編程邏輯 > 業(yè)界動態(tài) > Tumblr掃黃正式開始!AI鑒黃也許是老司機(jī)們的頭號敵人

Tumblr掃黃正式開始!AI鑒黃也許是老司機(jī)們的頭號敵人

2018-12-17
關(guān)鍵詞: Tumblr 人工智能 AI鑒黃

大家喜聞樂見的 Tumblr(湯不熱)涼了……


12 月初,美國著名圖片博客網(wǎng)站 Tumblr 宣布將全面禁止任何成人內(nèi)容。新規(guī)定將于 12 月 17 日正式施行。這一行為看來是主動在和「互聯(lián)網(wǎng)的 30% 流量」說再見,長久混跡 Tumblr 的老司機(jī)們送了一首「涼涼」予它。

 

微信圖片_20181217184909.jpg


自 2007 年上線以來,Tumblr 一直以允許 NSFW 內(nèi)容而聞名(也可能是臭名昭著),這是公司管理層一時的頭腦發(fā)熱還是想要「改過自新」了?不論 Tumblr 的意圖如何,想要為社交網(wǎng)絡(luò)加入審核機(jī)制,過濾色情圖片/視頻是需要投入技術(shù)和人力的。


在 Tumblr 的官方通告中,公司 CEO Jeff D’Onofrio 表示,「……(Tumblr) 將采用產(chǎn)業(yè)標(biāo)準(zhǔn)的機(jī)器監(jiān)控、不斷加大的人類監(jiān)控等方式禁止成人內(nèi)容?!?/p>


但是,才「睜開眼睛」的計算機(jī)并不那么完美?!筗ired 在近日的一篇文章中稱。許多 Tumblr 用戶在 Twitter 上抱怨其鑒別系統(tǒng)存在許多誤判行為。如據(jù) Wired 文章,奧克拉荷馬大學(xué)法學(xué)院教授 Sarah Burstein 只是發(fā)布了幾張設(shè)計專利圖,就被標(biāo)記了。文章表示這不僅效率低下,而且傷害了用戶的感情。不少 Tumblr 的用戶失望地涌向推特,《紐約時報》稱這些用戶是「棄船而逃」。


其實(shí)在多年前,Tumblr 就面臨著準(zhǔn)確識別 NSFW 內(nèi)容的問題。2013 年,Yahoo 11 億美元收購 Tumblr,4 年后 Verizon 收購雅虎,Tumblr 歸于 Verizon 子公司 Oath,并在不久之后推出了「安全模式」,能在搜索結(jié)果中自動過濾成人內(nèi)容。


人工智能雖然可以同時處理大量圖片,但畢竟不是人類,難免會出現(xiàn)一些令人哭笑不得的差錯。特別像 Tumblr 這樣的微博客平臺,用戶群體復(fù)雜,色情與非色情的界限非常難以把握。圖普科技產(chǎn)品運(yùn)營總監(jiān)姜澤榮表示,「(這樣的平臺在制定標(biāo)準(zhǔn)時)標(biāo)準(zhǔn)過嚴(yán)可能會把攝影作品、藝術(shù)作品之類的內(nèi)容識別為色情內(nèi)容,傷害用戶體驗;標(biāo)準(zhǔn)過低則會讓平臺上的色情內(nèi)容繼續(xù)泛濫。此外平臺上的內(nèi)容類型繁多,包含文字、圖片、視頻、直播等,各個類型的內(nèi)容實(shí)時性不一,審核標(biāo)準(zhǔn)差異大,這無疑都對開發(fā)、運(yùn)營等團(tuán)隊提出高要求。」


圖普科技是國內(nèi)較早使用深度學(xué)習(xí)技術(shù)提供圖像和視頻內(nèi)容審核服務(wù)的 AI 創(chuàng)業(yè)公司。在平臺色情內(nèi)容審核等問題上,圖譜向機(jī)器之心解釋了一些問題。


圖像鑒黃系統(tǒng)流程是什么?


鑒黃系統(tǒng)的工作流程是這樣的:首先是要建模,其次是制定色情圖片的分類標(biāo)準(zhǔn),然后收集大量素材,進(jìn)行分類標(biāo)注,最后用這些標(biāo)注好的素材進(jìn)行訓(xùn)練,讓機(jī)器去學(xué)習(xí)各個分類里面的特征,不斷調(diào)整自己模型的參數(shù)并最終得到最佳的識別模型。


而當(dāng)機(jī)器對圖像進(jìn)行識別以后,這些圖像數(shù)據(jù)會轉(zhuǎn)化為數(shù)字化的信息,帶入到模型里面進(jìn)行計算, 根據(jù)計算值將圖片標(biāo)注為「正常、性感、色情」三個類別。


因為「識別」的不完美性,這樣的系統(tǒng)也會有人類的參與。在經(jīng)過識別之后,系統(tǒng)把判斷結(jié)果和概率告訴使用方,使用方會再根據(jù)結(jié)果做對應(yīng)處理,比如自動刪除、或者人工接入復(fù)審。如果在人工復(fù)核環(huán)節(jié)發(fā)現(xiàn)機(jī)器識別有誤,則會有針對性地對相同場景的圖片進(jìn)行數(shù)據(jù)學(xué)習(xí), 并調(diào)整參數(shù), 直到錯誤率達(dá)到最低值。


AI 鑒黃的技術(shù)核心是深度學(xué)習(xí)理論(Deep Learning)。通俗來講,可以把深度學(xué)習(xí)理解為一個空白的大腦,海量數(shù)據(jù)就是灌輸進(jìn)來的經(jīng)驗。當(dāng)我們把大量的色情、性感、正常的樣本的屬性告訴深度學(xué)習(xí)的引擎,讓引擎不斷學(xué)習(xí),然后把他們做對的進(jìn)行獎勵,做錯的就懲罰,當(dāng)然這些獎勵和懲罰都是數(shù)學(xué)上的,最后空白的腦袋就會學(xué)成了一種連接的模型,這種模型就是為了鑒別色情與非色情而生的。


深度學(xué)習(xí)就是人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,以下簡稱 ANN)。要了解 ANN,讓我們先來看看人類的大腦是如何工作的。

微信圖片_20181217184928.jpg

 人腦的視覺處理系統(tǒng)(圖片來源:Simon Thorpe)


上圖表示人理解外界視覺信息的過程。從視網(wǎng)膜(Retina)出發(fā), 經(jīng)過低級的 V1 區(qū)提取邊緣特征,到 V2 區(qū)的基本形狀或目標(biāo)的局部,再到高層的整個目標(biāo)(如判定為一張人臉),以及到更高層的 PFC(前額葉皮層)進(jìn)行分類判斷等。也就是說高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越抽象和概念化,也即越來越能表現(xiàn)語義或者意圖。


深度學(xué)習(xí)恰恰就是通過組合低層特征形成更加抽象的高層特征(或?qū)傩灶悇e),然后在這些低層次表達(dá)的基礎(chǔ)上通過線性或者非線性組合,來獲得一個高層次的表達(dá)。此外,不僅圖像存在這個規(guī)律,聲音也是類似的。


現(xiàn)在來看深度學(xué)習(xí)的簡易模型。

微信圖片_20181217184953.jpg

傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)(圖片來源網(wǎng)絡(luò))


深度學(xué)習(xí)的一個主要優(yōu)勢在于可以利用海量訓(xùn)練數(shù)據(jù)(即大數(shù)據(jù)),在學(xué)習(xí)的過程中不斷提高識別精度,但是仍然對計算量有很高的要求。而近年來,得益于計算機(jī)速度的提升、大規(guī)模集群技術(shù)的興起、GPU 的應(yīng)用以及眾多優(yōu)化算法的出現(xiàn),耗時數(shù)月的訓(xùn)練過程可縮短為數(shù)天甚至數(shù)小時,深度學(xué)習(xí)才逐漸可用于工業(yè)化。


對于開發(fā)團(tuán)隊來說,做該領(lǐng)域的產(chǎn)品困難在于如何獲取大規(guī)模已標(biāo)注數(shù)據(jù)、集成有 GPU 的計算集群以及針對自己的項目調(diào)參數(shù),團(tuán)隊需要不斷地輸入新數(shù)據(jù),持續(xù)迭代以提高機(jī)器識別準(zhǔn)確率。


既有圖片又有視頻怎么辦?


在短視頻流行的今天,各家科技公司還要面對海量的視頻內(nèi)容。圖片是靜態(tài)的,視頻/直播是動態(tài)的,而視頻內(nèi)容的完整審核包括對圖片、文字、語音的審核,所以會更加復(fù)雜。以對視頻圖片審核為例,在鑒別視頻和直播時,可以先把動態(tài)的內(nèi)容解碼成圖片幀,這就與靜態(tài)圖片鑒別方法相似了。


直播實(shí)時性強(qiáng),對響應(yīng)時間要求高,并且里面的場景和人物變化比較大,審核要求比較嚴(yán)格,所以識別難度會相對比較大,需要實(shí)時不斷對房間進(jìn)行截幀傳輸識別,并且結(jié)合人工來實(shí)現(xiàn)預(yù)警處理;視頻在畫質(zhì)整體上比圖片和直播差,一定程度會影響識別效果,通常是以視頻為單位進(jìn)行等時間間隔截圖,以一個視頻多張截圖的結(jié)果來綜合判斷視頻是否色情違規(guī)。


如果企業(yè)對視頻或直播的每一幀圖片都進(jìn)行識別,數(shù)據(jù)量將變得非常巨大,運(yùn)營成本會很高。面對這類情況,一般會采用對視頻抽幀的方式進(jìn)行處理。例如,一分鐘視頻,可以按照時間段來抽取 6-15 幀左右的圖片進(jìn)行識別處理,以此減少計算成本。

審核能否完全依賴機(jī)器?


針對人們屢屢吐槽的「誤殺」問題,圖譜認(rèn)為在提高 AI 算法準(zhǔn)確度的同時目前還需依靠人類做最后的判斷。誤判分為兩大類型:把色情內(nèi)容誤判為正常內(nèi)容,以及把正常內(nèi)容誤判為色情內(nèi)容。


1)色情判正常:在光線昏暗場景,或者距離很遠(yuǎn)時背景干擾比較大的場景下,以及有特效干擾的情況都有可能造成誤判;衣著正常但實(shí)際上露點(diǎn)、隱晦的動作和姿勢等。


2)正常判色情:穿著暴露但實(shí)際沒露點(diǎn),物體形似性器官,接近于色情動作但實(shí)際不是(譬如手抓棍狀物體、手正常放在敏感部位)等。


機(jī)器能夠幫助企業(yè)大幅提升審核效率和準(zhǔn)確率。以圖普科技的鑒黃系統(tǒng)為例,每天可審核近 10 億張圖片,識別準(zhǔn)確率高于 99.5%,可為企業(yè)節(jié)省 95% 以上的審核人力。但在現(xiàn)階段甚至很長一段時間內(nèi),人工智能鑒黃無法完全代替人工鑒黃。因為機(jī)器還很難理解內(nèi)容背后的深意,也不會在不同文化場景中做自由切換。所以推薦以機(jī)器+人工的審核方法。


單純的算法和模型是可以把機(jī)器訓(xùn)練到完全正確地判斷情況的,但是在實(shí)際應(yīng)用中,機(jī)器沒有自主思考和自己的主觀意識,仍然需要人工輔助進(jìn)行確認(rèn)。例如客戶提供的畫面過于模糊或者說光線過暗,以及訓(xùn)練數(shù)據(jù)的不能完全覆蓋性等種種客觀原因影響下,機(jī)器打不出很高的分確認(rèn)圖片,這都需要人工來輔助。

微信圖片_20181217185016.jpg

 「Tumblr 網(wǎng)友:即使這樣我也愛你?!?/p>


看來,AI 圖像識別系統(tǒng)可以用現(xiàn)有的,「鑒黃師」則非請不可。在宣布禁止成人內(nèi)容之后,Tumblr 的 app 終于再次出現(xiàn)在蘋果應(yīng)用商店里。這輛車最終會開向何處?讓我們拭目以待。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。