当算法洞悉人类情绪,真正的恐惧已然来临
统计 阅读时间大约9分钟(3570字)

2019-03-12 07:40:00 当算法洞悉人类情绪,真正的恐惧已然来临

​情绪检测技术主要包含两个技术要点:一个是计算机视觉技术,另一个是机器学习算法。

【猎云网(微信号:ilieyun)】3月12日报道 (编译:孙洋)

据称,机器现在已经可以识别很多人类的情绪,包括愤怒、恐惧、厌恶以及悲伤等等。情绪识别技术已经从实验室里面走了出来,成长为一个价值高达200亿的行业。

到底能不能通过面部识别和动作识别来找到恐怖分子呢?这个项目早在2003年就已经由美国运输安全管理局(TSA)提出来了,从那时起,他们就开始测试一个名为Spot的监控系统来完成这个任务。

在开发这个系统的过程中,他们咨询了Paul Ekman教授。Paul Ekman教授是旧金山加利福尼亚大学的荣誉退休教授。他在几十年前就开发了一种可以识别人类面部微情绪的方法,这种方法可以通过扫描人脸微表情来测定一个人是否撒谎。

但是,后来这个项目出现了一些问题,因而在2007年的时候被叫停了。安全人员对乘客进行临检也是随机的,而且,逮捕的人大多与恐怖组织并无联系。另外,据说这个系统还被用来区分人种。                            

Ekman也在努力和Spot项目划清界限,他认为,Spot项目滥用了他的技术。但其他一些人认为,项目失败的原因是这项技术的原理已经过时了。这项技术的原理是:情绪可以通过对面部物理特征的分析而得出。

最近几年,科技公司已经开始基于Ekman的识别方法训练算法,这些算法都是用于分析和检测面部情绪。一些开发者声称,他们开发的自动情绪检测系统不仅仅具有比人类更厉害的情绪解读能力,而且,它们还可以洞悉我们内心的真实想法,从而提升用户与设备之间的人机交互。

但是很多研究情绪的专家认为这些算法并不会成功,而且,这个技术的可靠性也尚未得到证实,使用它们可能会产生不好的后果。

人脸分析技术

情绪检测技术主要包含两个技术要点:一个是计算机视觉技术,用于精确识别面部情绪;另一个是机器学习算法,用于解读面部情绪。

一般来说,第二个步骤会使用一种名为“监督学习”的技术,这种技术可以训练算法,使之能够识别之前“见到”过的东西。其原理就是让算法分析和处理成千上万张高兴表情的图片来训练算法,而经过训练后的算法将能够识别新的、高兴表情的图片。

一个名叫Rana el Kaliouby研究生是第一位使用这种技术进行试验的人。在2001年的时候,他从埃及来到剑桥攻读计算机科学博士学位。和其他人相比,她每天使用电脑的时间都会很长。因此,她想到:如果计算机可以识别她的情绪,并且给与回应的话,是不是很有趣呢?毕竟,她远渡重洋,身边没有家人和朋友,很孤独。

因而,Kaliouby攻读博士研究生期间的课题就选择了实现自己的这个想法,而且,最后也成功地开发了一个设备。这个设备可以帮助患有阿斯波哥尔综合征(儿童分裂样精神病)的儿童阅读,同时回应这些儿童的情绪。

2006年时,Kaliouby加入了麻省理工的情绪计算实验室。在此工作期间,她和实验室的主任Rosalind Picard一起工作,继续改进和提升自己的技术。后来,在2009年时,他们一起创办了一家名为Affectiva的初创公司,这也是第一家研究情绪人工智能的公司。

起初,Affectiva公司直接出售自己的情绪检测技术,这项技术可以实时检测人们对于广告和产品的情绪反应。他们的客户包括Mars、Kellogg’s以及CBS等等。2013年,他们还与另外一家生物测量公司进行了合作,同时,随着行业的进步而持续增长。

Amazon、Microsoft、IBM现在也在宣传“情绪分析”技术,这项技术在这些公司也是面部识别技术的一种。还有很多小一些的公司,比如Kairos和Eyeris公司,他们也已经发展起来了,向Affectiva公司提供相似的服务。

除了用于市场调查,这项技术还被应用于监控、检测司机精神状态、测试游戏的用户体验,甚至还可以协助医生评估病人的情况。

Kaliouby见证了情绪检测技术的发展,情绪检测技术从实验室中的一个科研项目,成长成为一个规模高达200亿美元的产业。而且,她相信情绪检测技术还会继续发展。她预测,未来这项技术将会无处不在,集成进入我们所有的设备之中,甚至能够洞悉我们的内心,解读我们的潜意思,并且给与实时的回应。

庞大的数据库

和大部分机器学习技术应用场景一样,情绪识别也以来大量高质量数据。

根据Affectiva网站上的说法,Affectiva公司拥有世界上最大的情绪数据库。数据库中共有超过750万张脸,它们来自于87个不同的国家。主要的拍摄场景是观看电视和日常通勤。

这些视频由Affectiva公司的35名工作人员进行标记,通过判断来标定视频中拍摄到的情绪。比如,如果看到有人眉毛低垂、嘴唇紧闭或者是眼球外凸,那就将其标注为“愤怒”。其他情绪也是相似的处理方法。这些标记好的数据将会被用于训练公司的算法。

很多情绪检测公司都使用这种标记方法,而这种方法已经成为测量情绪的金科玉律。这种方法叫做“面部情绪动作编码系统”(Emfacs),由Paul Ekman和Wallace V Friesen在上世纪80年代提出。

而这种技术最早起源于上世纪60年代,当时,Ekman和两位同事创建了一个假说。假说认为,人类一共有6种通用情绪,包括:愤怒、厌恶、恐惧、快乐、悲伤以及惊讶,而这些情绪都可以通过分析面部肌肉的运动来得出结论。

为了证明这个假说,他们设计了实验,向不同文化背景的人们展示情绪照片,让他们来识别图中情绪。结果表明,虽然大家有很大的文化差异,但是大家对于情绪的识别基本都是一致的。例如,对于所有的人来说,低垂的眉毛、紧闭的嘴唇以及外凸的眼球都是表示“愤怒”。

在接下来的20年中,Ekman根据自己的发现,开发了用于识别面部情绪的方法。一个人的某种情绪会自动激发面部肌肉的活动,从而显示出情绪。尽管有的时候人们在尽力隐藏自己真实的情绪,但总是会流露出一些东西,而这些东西就可能被其他人所捕捉到。

在20世界后半叶,这个理论一直当做情绪的经典理论。Ekman将他的情绪检测方法申请了专利,并向CIA、FBI以及TSA等机构出售自己的技术,用于帮助这些机构进行培训。这种理论后来也流行起来,甚至还有人用这个点子,拍了一部名为Lie to Me(别对我说谎)的电视剧。

但是,很多研究情绪的自然科学家和神经学家都开始质疑Ekman的经典理论。

近几年来,来自于美国东北大学(Northeastern University)的Lisa Feldman Barrett教授对Ekman的经典理论提出了有力而且持续的评论。

Barrett教授第一次接触经典情绪理论是在读研期间,她需要找一个合适的方法来客观地测量情绪,因而就找到了Ekman教授的经典理论。当她仔细阅读相关文献时,她发现这个理论是有漏洞的。当时的实验中,人们做的是将给定的情绪和图片去进行匹配,而这一定程度上相当于无意地给了他们答案的提示。

她和她的一些同事们一起重新做了Ekman经典理论的验证实验,这次,他们不再提供标签,实验参与者可以自由地描述图片中的情绪。最终,实验得到了和以前不太一样的结果,面部表情和情绪的相关性大大降低。

从这以后,Barrett建立了自己的情绪理论,而且出版了一本书来详细阐明,书的名字叫做《情绪是如何产生的:大脑的秘密》(How Emotions Are Made: the Secret Life of the Brain)她认为,没有什么所谓的“通用情绪”,情绪存在于大脑之中,由内部刺激而激发,而且情绪是由更小的基础结构所构成的。

Barrett在书中写到:“情绪是身体的物理特性的体现。大脑会将自己和周围的各种环境相联系,包括文化、成长历程等等,从而产生出情绪。情绪是真实的,但是并不是一个具象的分子或者是神经元。这种真实就是像是我们手里握着钞票那样,情绪是我们身体的产物。”

Barrett认为将面部表情直接和情绪在各种文化环境中直接相关联,是不合适的。有的人在生气的时候可能会满脸怒容,另一个可能会礼貌的微笑,但背地里谋划着怎么对付自己的敌人。因此,进行情绪分析时,需要把情绪看做是动态的,而且涉及很多东西,包括:认知过程、人际交互、行为倾向以及文化背景等。Barrett说道:“情绪非常复杂,因此,分析情绪有很多需要做的事情。”

Kaliouby也同意表情是复杂的,这也是为什么她和她的团队一直在提升自己数据库的丰富程度和复杂程度。而且,他们使用视频来训练算法,而不再使用图片。他们也在试验中抓取相关信息,比如说声音、步态以及面部的细微变化。她坚信,更好的数据库将会提升分析结果的准确性。有些研究甚至声称,机器在识别工作上的表现已经超过了人类。

但是,Barrett认为,光有数据还不行,重要的是怎么去标记。Affectiva等公司的标记数据训练出来的算法,只能识别Barrett教授提到的“典型情绪”。

纽约大学AI Now研究中心的联合主任Meredith Whittake,基于Ekman的理论开发了一个使用机器学习技术的应用。结果,最后发现这个应用不仅不实用,而且可能会给社会造成一定的危害。

她说:“有的公司已经开始使用这些技术来评测应聘者是不是合适,甚至有的学校也用这些技术来判断学生的参与度和满意度。对于应聘者,这样的信息会改变一个人的应聘结果;对于学生,这样的信息会改变他所接受到的教学方法和评价方式。如果这个结果不是非常准确的话,那麻烦就大了。”

Kaliouby表示,她也知道情绪检测技术可能会被滥用,因此,在开发过程中,她非常注意技术伦理问题。

Kaliouby非常了解建立多元数据库的重要性,她说:“我们必须要保证用于训练算法的数据是多元化的。我们的样本包含白种人、亚洲人、深色人种,甚至还包括穆斯林女性。“

正是为了这个目的,Affectiva公司从87个国家收集数据。而在数据收集的过程中,工作人员发现,有的国家居民表情明显,有的则不然,在表达情绪的时候会有一些细微的差别。比如说,巴西人笑得时候嘴会咧得比较宽、比较长;而日本人的微笑并不表示开心,只是表示礼貌。

Affectiva公司为这些细微差别专门建立了一个分析系统,用于区分不同的种族和不同的文化。

但是,Whittaker对这样的技术有些担心。事实上,已经有一些公司提供预测技术,可以预测某个人多大程度上可能会是恐怖分子、恋童癖或者是预测一个人的性取向。

最近的一些研究表明,面部识别技术产生的偏见将更可能会损害少数民族的权利。去年11月公布的一项研究表明,相对白人,情绪检测技术对于黑人并不友好。

当这些问题汇总到Kaliouby那里以后,她说,Affectiva公司的系统中的确有所谓的“种族鉴定”功能,但是现在并未启用。而且,他们只会横向对比识别同一地区的情绪。例如,巴西人和巴西人去对比,日本人和日本人去对比。

“那如果是一个在巴西的日本人怎么办呢?系统会采用那个标准呢?“

“当前,我们的技术还未成熟。”

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:ilieyun
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
0
评论
推荐阅读
记者名字
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×
ai2019峰会 ×