《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 當(dāng)算法洞悉人類情緒,真正的恐懼已然來臨

當(dāng)算法洞悉人類情緒,真正的恐懼已然來臨

2019-03-13
關(guān)鍵詞: 機器 人工智能 面部識別

據(jù)稱,機器現(xiàn)在已經(jīng)可以識別很多人類的情緒,包括憤怒、恐懼、厭惡以及悲傷等等。情緒識別技術(shù)已經(jīng)從實驗室里面走了出來,成長為一個價值高達200億的行業(yè)。

到底能不能通過面部識別和動作識別來找到恐怖分子呢?這個項目早在2003年就已經(jīng)由美國運輸安全管理局(TSA)提出來了,從那時起,他們就開始測試一個名為Spot的監(jiān)控系統(tǒng)來完成這個任務(wù)。

在開發(fā)這個系統(tǒng)的過程中,他們咨詢了Paul Ekman教授。Paul Ekman教授是舊金山加利福尼亞大學(xué)的榮譽退休教授。他在幾十年前就開發(fā)了一種可以識別人類面部微情緒的方法,這種方法可以通過掃描人臉微表情來測定一個人是否撒謊。

但是,后來這個項目出現(xiàn)了一些問題,因而在2007年的時候被叫停了。安全人員對乘客進行臨檢也是隨機的,而且,逮捕的人大多與恐怖組織并無聯(lián)系。另外,據(jù)說這個系統(tǒng)還被用來區(qū)分人種。

1552351790163057495.png

Ekman也在努力和Spot項目劃清界限,他認為,Spot項目濫用了他的技術(shù)。但其他一些人認為,項目失敗的原因是這項技術(shù)的原理已經(jīng)過時了。這項技術(shù)的原理是:情緒可以通過對面部物理特征的分析而得出。

最近幾年,科技公司已經(jīng)開始基于Ekman的識別方法訓(xùn)練算法,這些算法都是用于分析和檢測面部情緒。一些開發(fā)者聲稱,他們開發(fā)的自動情緒檢測系統(tǒng)不僅僅具有比人類更厲害的情緒解讀能力,而且,它們還可以洞悉我們內(nèi)心的真實想法,從而提升用戶與設(shè)備之間的人機交互。

但是很多研究情緒的專家認為這些算法并不會成功,而且,這個技術(shù)的可靠性也尚未得到證實,使用它們可能會產(chǎn)生不好的后果。

人臉分析技術(shù)

情緒檢測技術(shù)主要包含兩個技術(shù)要點:一個是計算機視覺技術(shù),用于精確識別面部情緒;另一個是機器學(xué)習(xí)算法,用于解讀面部情緒。

一般來說,第二個步驟會使用一種名為“監(jiān)督學(xué)習(xí)”的技術(shù),這種技術(shù)可以訓(xùn)練算法,使之能夠識別之前“見到”過的東西。其原理就是讓算法分析和處理成千上萬張高興表情的圖片來訓(xùn)練算法,而經(jīng)過訓(xùn)練后的算法將能夠識別新的、高興表情的圖片。

一個名叫Rana el Kaliouby研究生是第一位使用這種技術(shù)進行試驗的人。在2001年的時候,他從埃及來到劍橋攻讀計算機科學(xué)博士學(xué)位。和其他人相比,她每天使用電腦的時間都會很長。因此,她想到:如果計算機可以識別她的情緒,并且給與回應(yīng)的話,是不是很有趣呢?畢竟,她遠渡重洋,身邊沒有家人和朋友,很孤獨。

因而,Kaliouby攻讀博士研究生期間的課題就選擇了實現(xiàn)自己的這個想法,而且,最后也成功地開發(fā)了一個設(shè)備。這個設(shè)備可以幫助患有阿斯波哥爾綜合征(兒童分裂樣精神?。┑膬和喿x,同時回應(yīng)這些兒童的情緒。

2006年時,Kaliouby加入了麻省理工的情緒計算實驗室。在此工作期間,她和實驗室的主任Rosalind Picard一起工作,繼續(xù)改進和提升自己的技術(shù)。后來,在2009年時,他們一起創(chuàng)辦了一家名為Affectiva的初創(chuàng)公司,這也是第一家研究情緒人工智能的公司。

起初,Affectiva公司直接出售自己的情緒檢測技術(shù),這項技術(shù)可以實時檢測人們對于廣告和產(chǎn)品的情緒反應(yīng)。他們的客戶包括Mars、Kellogg’s以及CBS等等。2013年,他們還與另外一家生物測量公司進行了合作,同時,隨著行業(yè)的進步而持續(xù)增長。

Amazon、Microsoft、IBM現(xiàn)在也在宣傳“情緒分析”技術(shù),這項技術(shù)在這些公司也是面部識別技術(shù)的一種。還有很多小一些的公司,比如Kairos和Eyeris公司,他們也已經(jīng)發(fā)展起來了,向Affectiva公司提供相似的服務(wù)。

除了用于市場調(diào)查,這項技術(shù)還被應(yīng)用于監(jiān)控、檢測司機精神狀態(tài)、測試游戲的用戶體驗,甚至還可以協(xié)助醫(yī)生評估病人的情況。

Kaliouby見證了情緒檢測技術(shù)的發(fā)展,情緒檢測技術(shù)從實驗室中的一個科研項目,成長成為一個規(guī)模高達200億美元的產(chǎn)業(yè)。而且,她相信情緒檢測技術(shù)還會繼續(xù)發(fā)展。她預(yù)測,未來這項技術(shù)將會無處不在,集成進入我們所有的設(shè)備之中,甚至能夠洞悉我們的內(nèi)心,解讀我們的潛意思,并且給與實時的回應(yīng)。

龐大的數(shù)據(jù)庫

和大部分機器學(xué)習(xí)技術(shù)應(yīng)用場景一樣,情緒識別也以來大量高質(zhì)量數(shù)據(jù)。

根據(jù)Affectiva網(wǎng)站上的說法,Affectiva公司擁有世界上最大的情緒數(shù)據(jù)庫。數(shù)據(jù)庫中共有超過750萬張臉,它們來自于87個不同的國家。主要的拍攝場景是觀看電視和日常通勤。

這些視頻由Affectiva公司的35名工作人員進行標(biāo)記,通過判斷來標(biāo)定視頻中拍攝到的情緒。比如,如果看到有人眉毛低垂、嘴唇緊閉或者是眼球外凸,那就將其標(biāo)注為“憤怒”。其他情緒也是相似的處理方法。這些標(biāo)記好的數(shù)據(jù)將會被用于訓(xùn)練公司的算法。

很多情緒檢測公司都使用這種標(biāo)記方法,而這種方法已經(jīng)成為測量情緒的金科玉律。這種方法叫做“面部情緒動作編碼系統(tǒng)”(Emfacs),由Paul Ekman和Wallace V Friesen在上世紀(jì)80年代提出。

而這種技術(shù)最早起源于上世紀(jì)60年代,當(dāng)時,Ekman和兩位同事創(chuàng)建了一個假說。假說認為,人類一共有6種通用情緒,包括:憤怒、厭惡、恐懼、快樂、悲傷以及驚訝,而這些情緒都可以通過分析面部肌肉的運動來得出結(jié)論。

為了證明這個假說,他們設(shè)計了實驗,向不同文化背景的人們展示情緒照片,讓他們來識別圖中情緒。結(jié)果表明,雖然大家有很大的文化差異,但是大家對于情緒的識別基本都是一致的。例如,對于所有的人來說,低垂的眉毛、緊閉的嘴唇以及外凸的眼球都是表示“憤怒”。

在接下來的20年中,Ekman根據(jù)自己的發(fā)現(xiàn),開發(fā)了用于識別面部情緒的方法。一個人的某種情緒會自動激發(fā)面部肌肉的活動,從而顯示出情緒。盡管有的時候人們在盡力隱藏自己真實的情緒,但總是會流露出一些東西,而這些東西就可能被其他人所捕捉到。

在20世界后半葉,這個理論一直當(dāng)做情緒的經(jīng)典理論。Ekman將他的情緒檢測方法申請了專利,并向CIA、FBI以及TSA等機構(gòu)出售自己的技術(shù),用于幫助這些機構(gòu)進行培訓(xùn)。這種理論后來也流行起來,甚至還有人用這個點子,拍了一部名為Lie to Me(別對我說謊)的電視劇。

但是,很多研究情緒的自然科學(xué)家和神經(jīng)學(xué)家都開始質(zhì)疑Ekman的經(jīng)典理論。

近幾年來,來自于美國東北大學(xué)(Northeastern University)的Lisa Feldman Barrett教授對Ekman的經(jīng)典理論提出了有力而且持續(xù)的評論。

Barrett教授第一次接觸經(jīng)典情緒理論是在讀研期間,她需要找一個合適的方法來客觀地測量情緒,因而就找到了Ekman教授的經(jīng)典理論。當(dāng)她仔細閱讀相關(guān)文獻時,她發(fā)現(xiàn)這個理論是有漏洞的。當(dāng)時的實驗中,人們做的是將給定的情緒和圖片去進行匹配,而這一定程度上相當(dāng)于無意地給了他們答案的提示。

她和她的一些同事們一起重新做了Ekman經(jīng)典理論的驗證實驗,這次,他們不再提供標(biāo)簽,實驗參與者可以自由地描述圖片中的情緒。最終,實驗得到了和以前不太一樣的結(jié)果,面部表情和情緒的相關(guān)性大大降低。

從這以后,Barrett建立了自己的情緒理論,而且出版了一本書來詳細闡明,書的名字叫做《情緒是如何產(chǎn)生的:大腦的秘密》(How Emotions Are Made: the Secret Life of the Brain)她認為,沒有什么所謂的“通用情緒”,情緒存在于大腦之中,由內(nèi)部刺激而激發(fā),而且情緒是由更小的基礎(chǔ)結(jié)構(gòu)所構(gòu)成的。

Barrett在書中寫到:“情緒是身體的物理特性的體現(xiàn)。大腦會將自己和周圍的各種環(huán)境相聯(lián)系,包括文化、成長歷程等等,從而產(chǎn)生出情緒。情緒是真實的,但是并不是一個具象的分子或者是神經(jīng)元。這種真實就是像是我們手里握著鈔票那樣,情緒是我們身體的產(chǎn)物?!?/p>

Barrett認為將面部表情直接和情緒在各種文化環(huán)境中直接相關(guān)聯(lián),是不合適的。有的人在生氣的時候可能會滿臉怒容,另一個可能會禮貌的微笑,但背地里謀劃著怎么對付自己的敵人。因此,進行情緒分析時,需要把情緒看做是動態(tài)的,而且涉及很多東西,包括:認知過程、人際交互、行為傾向以及文化背景等。Barrett說道:“情緒非常復(fù)雜,因此,分析情緒有很多需要做的事情?!?/p>

Kaliouby也同意表情是復(fù)雜的,這也是為什么她和她的團隊一直在提升自己數(shù)據(jù)庫的豐富程度和復(fù)雜程度。而且,他們使用視頻來訓(xùn)練算法,而不再使用圖片。他們也在試驗中抓取相關(guān)信息,比如說聲音、步態(tài)以及面部的細微變化。她堅信,更好的數(shù)據(jù)庫將會提升分析結(jié)果的準(zhǔn)確性。有些研究甚至聲稱,機器在識別工作上的表現(xiàn)已經(jīng)超過了人類。

但是,Barrett認為,光有數(shù)據(jù)還不行,重要的是怎么去標(biāo)記。Affectiva等公司的標(biāo)記數(shù)據(jù)訓(xùn)練出來的算法,只能識別Barrett教授提到的“典型情緒”。

紐約大學(xué)AI Now研究中心的聯(lián)合主任Meredith Whittake,基于Ekman的理論開發(fā)了一個使用機器學(xué)習(xí)技術(shù)的應(yīng)用。結(jié)果,最后發(fā)現(xiàn)這個應(yīng)用不僅不實用,而且可能會給社會造成一定的危害。

她說:“有的公司已經(jīng)開始使用這些技術(shù)來評測應(yīng)聘者是不是合適,甚至有的學(xué)校也用這些技術(shù)來判斷學(xué)生的參與度和滿意度。對于應(yīng)聘者,這樣的信息會改變一個人的應(yīng)聘結(jié)果;對于學(xué)生,這樣的信息會改變他所接受到的教學(xué)方法和評價方式。如果這個結(jié)果不是非常準(zhǔn)確的話,那麻煩就大了?!?/p>

Kaliouby表示,她也知道情緒檢測技術(shù)可能會被濫用,因此,在開發(fā)過程中,她非常注意技術(shù)倫理問題。

Kaliouby非常了解建立多元數(shù)據(jù)庫的重要性,她說:“我們必須要保證用于訓(xùn)練算法的數(shù)據(jù)是多元化的。我們的樣本包含白種人、亞洲人、深色人種,甚至還包括穆斯林女性。“

正是為了這個目的,Affectiva公司從87個國家收集數(shù)據(jù)。而在數(shù)據(jù)收集的過程中,工作人員發(fā)現(xiàn),有的國家居民表情明顯,有的則不然,在表達情緒的時候會有一些細微的差別。比如說,巴西人笑得時候嘴會咧得比較寬、比較長;而日本人的微笑并不表示開心,只是表示禮貌。

Affectiva公司為這些細微差別專門建立了一個分析系統(tǒng),用于區(qū)分不同的種族和不同的文化。

但是,Whittaker對這樣的技術(shù)有些擔(dān)心。事實上,已經(jīng)有一些公司提供預(yù)測技術(shù),可以預(yù)測某個人多大程度上可能會是恐怖分子、戀童癖或者是預(yù)測一個人的性取向。

最近的一些研究表明,面部識別技術(shù)產(chǎn)生的偏見將更可能會損害少數(shù)民族的權(quán)利。去年11月公布的一項研究表明,相對白人,情緒檢測技術(shù)對于黑人并不友好。

當(dāng)這些問題匯總到Kaliouby那里以后,她說,Affectiva公司的系統(tǒng)中的確有所謂的“種族鑒定”功能,但是現(xiàn)在并未啟用。而且,他們只會橫向?qū)Ρ茸R別同一地區(qū)的情緒。例如,巴西人和巴西人去對比,日本人和日本人去對比。

“那如果是一個在巴西的日本人怎么辦呢?系統(tǒng)會采用那個標(biāo)準(zhǔn)呢?“

“當(dāng)前,我們的技術(shù)還未成熟?!?/p>


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。