蘋果收購(gòu)了一家可讀解人們的面部表情并預(yù)測(cè)其情緒的公司,Emotient。
據(jù)華爾街日?qǐng)?bào)昨日消息,蘋果收購(gòu)了一家可讀解人們的面部表情并預(yù)測(cè)其情緒的公司,Emotient。該產(chǎn)品甚至可將滿屋子人的面部表情進(jìn)行分類,應(yīng)用范圍比如可以用來測(cè)量消費(fèi)者對(duì)廣告的反應(yīng)。Emotient稱,醫(yī)生也對(duì)他們的技術(shù)進(jìn)行了測(cè)試,以解讀那些無法進(jìn)行自我表達(dá)的病人的痛苦表情,零售商也用它監(jiān)測(cè)購(gòu)物者在商店走道里的面部表情或是的銷售人員通過佩戴 Google Glass 對(duì)顧客的表情進(jìn)行實(shí)時(shí)解讀。
蘋果公司發(fā)言人也證實(shí)了這項(xiàng)收購(gòu)交易,并表示蘋果“時(shí)常都會(huì)收購(gòu)小型技術(shù)公司,一般來說我們都不會(huì)討論收購(gòu)意圖或計(jì)劃”。該發(fā)言人拒絕透露這項(xiàng)交易的具體財(cái)務(wù)條款。
實(shí)際上,從20 世紀(jì) 90 年代以來,一批研究人員開始試圖讓機(jī)器讀能懂人類情緒,并可以像人類一樣作出正確回應(yīng)。一些智能系統(tǒng)已經(jīng)可以對(duì)音高、音色和響度進(jìn)行分析,識(shí)別出深層次語義,比如根據(jù)一位女性和孩子的對(duì)話,可以辨別出這位女性是否一位媽媽,她是否在盯著孩子的眼睛看,以及她是失落還是高興。另外一些機(jī)器則可以分析人類遣詞造句的方式,或者是解讀肢體語言,然后判斷用戶的情緒。此外還有一些人選擇從面部表情入手,因?yàn)樵诤芏鄷r(shí)候,面部承擔(dān)著情緒溝通的功能,而我們通過面部表情傳達(dá)的信息可能要遠(yuǎn)遠(yuǎn)多于語言本身。這其中又誕生了一些公司,如 Affectiva 、Emotient、Realeyes 和 Sension。
Emotient 總部位于圣地亞哥,此前已經(jīng)融資800萬美元,投資者包括英特爾資本。知情人士稱,Emotient在被蘋果收購(gòu)前一直在尋求啟動(dòng)新一輪風(fēng)險(xiǎn)投資融資活動(dòng),但根據(jù)提供的融資條款并未找到適合的投資方。 Emotient 在本周對(duì)網(wǎng)站進(jìn)行了改版,移除了公司所銷售服務(wù)的細(xì)節(jié)信息。
Emotient 官網(wǎng)上是這么介紹自己的:
Emotient是情緒檢測(cè)和情緒分析的領(lǐng)導(dǎo)者,我們的服務(wù)是量化情感反應(yīng),提升你對(duì)產(chǎn)品和市場(chǎng)的洞察力和行動(dòng)的有效性。
猜想蘋果收購(gòu)后可能用到的地方,將該技術(shù)置于 iPhone 的前置攝像頭中,來檢測(cè)用戶情緒狀態(tài),從而讓Siri 更加智能,與你對(duì)話可以考慮你的情緒變化;甚至可以利用這項(xiàng)技術(shù)來了解用戶對(duì) iAds 平臺(tái)上投放的廣告的反應(yīng)。
實(shí)際上在2014年提交的一項(xiàng)專利申請(qǐng)中,蘋果就已經(jīng)描述了一種根據(jù)多種線索,分析和確認(rèn)人類情緒的軟件系統(tǒng),這其中就包括面部識(shí)別。去年10月,蘋果證實(shí)已收購(gòu)人工智能創(chuàng)業(yè)公司 Perceptio 和 VocalIQ,后者旨在提升計(jì)算機(jī)理解人類自然對(duì)話的能力。而去年5月,Emotient 宣布已獲得了一項(xiàng)技術(shù)專利,可在一天內(nèi)收集并標(biāo)記多達(dá)10萬張面部圖像。這樣一來,計(jì)算機(jī)就能夠更好地識(shí)別不同的面部表情。
綜合這些線索來看,這些技術(shù)很有可能用于提升 Siri 與人進(jìn)行對(duì)話時(shí)的真實(shí)感,增加互動(dòng)性。
我這里整理了一份和Affectiva 和 Emotient 相關(guān)的科學(xué)家小故事,補(bǔ)充介紹情緒識(shí)別與這兩家公司的由來:
有一位埃及科學(xué)家 Rana el Kaliouby,和她的導(dǎo)師 Rosalind Picard 一起成立了 Affectiva,一家開發(fā)情感分析軟件的公司。
Rosalind Picard 早些時(shí)候在 M.I.T 的 Media Lab 做一些圖像壓縮方面的技術(shù)開發(fā),但很快她就遇到了瓶頸,因?yàn)樗_發(fā)的方法(盡管后來流行一時(shí))與被處理的對(duì)象是完全獨(dú)立的:比如說壓縮大運(yùn)河和總統(tǒng)肖像的圖片用的都是一樣的方法。她覺得,如果計(jì)算機(jī)可以知道自己正在處理什么就能改善這個(gè)過程。直到讀了一本關(guān)于聯(lián)覺的書《The Man Who Tasted Shapes》她才豁然開朗,意識(shí)到了情感與理性之間的聯(lián)系。與我們傳統(tǒng)認(rèn)為的 “無情卻又睿智” 不同,過少的情感,其實(shí)和過度豐富的情感一樣都會(huì)對(duì)我們的理性思考產(chǎn)生不好的影響,事實(shí)上一些影響情感的腦損傷也會(huì)剝奪人判斷和決策的能力,而判斷和決策正是我們希望電腦做的事情。
回到電腦的情緒識(shí)別,其實(shí)做法就是在面部提取一些關(guān)鍵的點(diǎn),將那些相對(duì)不變的 “錨點(diǎn)”,比如鼻尖,最為一些參考的固定點(diǎn),然后用像嘴角這樣的點(diǎn)來判斷你做出的表情。但是在九十年代,想要制造一個(gè)可以準(zhǔn)確長(zhǎng)出這些離散的面部動(dòng)作單元的系統(tǒng)實(shí)在是太難了,單是數(shù)字化一個(gè)視頻就要 25 秒。一個(gè)早期的研究人員說:無論怎么做總是有一點(diǎn)偏差,而且隨著結(jié)構(gòu)的不斷擴(kuò)大,錯(cuò)誤也越來越多,每十秒就要重新啟動(dòng)一次。
研究陷入了瓶頸, Kaliouby 只好去劍橋繼續(xù)讀她的博士學(xué)位了。但是有一次演講后,有一個(gè)聽眾告訴她,Kaliouby 訓(xùn)練電腦讀人臉和他自閉癥的弟弟遇到的問題很像。當(dāng)時(shí),劍橋的自閉癥研究中心正在做一個(gè)面部表情目錄的大工程,和 Ekman 將表情分成一小塊一小塊動(dòng)作單元,再通過動(dòng)作單元的組合判斷情緒的做法不同,他們對(duì)表情的分類更加自然,簡(jiǎn)單易懂,將表情進(jìn)行更細(xì)致的分類,然后從某一種特定的表情整體學(xué)習(xí)其中的特征。
Ekman 是一位心理學(xué)家,他的研究始于上世紀(jì)六十年代,并構(gòu)建了一套純熟的理論體系,證明了人類的面部至少可以表達(dá)六種情緒,分別是高興、悲傷、驚訝、恐懼、憤怒和厭惡,與性別、年齡、種族或者是文化背景無關(guān)。他將這些面部表情進(jìn)一步分解,系統(tǒng)化為 46 種“動(dòng)作單元”的排列組合,最終寫入了《面部動(dòng)作編碼系統(tǒng)》(Facial Action Coding System,也稱FACS)。這部著作有 500 多頁之厚,全面而又細(xì)致地講述了面部的動(dòng)作。數(shù)十年來,他的理論大范圍應(yīng)用在學(xué)術(shù)研究、電腦動(dòng)畫制作、測(cè)謊和案件偵破等諸多領(lǐng)域。
就這樣他們有了足夠的資料開發(fā) MindReader,一個(gè)可以在幾乎各種環(huán)境下檢測(cè)出復(fù)雜情緒的軟件,也是 Affdex (日后Affectiva 旗艦產(chǎn)品)的原型。Ekman,那個(gè)提出 FACS 的心理學(xué)家則和別人合作創(chuàng)立了 Emotient(上文提到被蘋果收購(gòu)的那家公司),也是一款情緒識(shí)別的軟件,同樣是利用機(jī)器學(xué)習(xí)的方法通過海量的數(shù)據(jù)學(xué)習(xí)構(gòu)建一個(gè)準(zhǔn)確的表情識(shí)別框架。
至此兩家公司的原型初步顯現(xiàn)。