在此前的文章(《去年AI当了回电影节作品编剧,现在MIT又训练它来预测观众泪点》)中,我们介绍了麻省理工学院(MIT)MediaLab如何通过AI来分析影片中常见的情感曲线,从而识别和预测人类的泪点。
今天,我们将进一步介绍AI如何通过用户或潜在用户的面部表情、语言文字甚至肢体语言,来实现情绪识别,并反馈到企业、机构和市场等场景中。
往前追溯,情感人工智能技术最早是由Affectiva公司开发的,而情绪识别一词则是由EMRAYS公司提出。两者都在借助功能强大的AI软件,识别人类收看广告和撰写评论时表达的情绪。
以下我们将对两家公司做简单介绍:
Affectiva:借助情感智能连接用户,洞察需求
Affectiva隶属麻省理工学院(MIT)的MediaLab,年由RosalindPicard博士和RanaelKaliouby博士(现公司CEO)联手创建。Picard是工程博士,曾于年出版了AffectiveComputing,该书为情感智能技术的研究奠定了重要的基础。目前,Picard仍就职于MIT,并兼任Affectiva的经理,有时还写书,并有持续的发明创造。Picard博士在剑桥大学访学期间,与Kaliouby博士相识。当时,Kaliouby博士正在研究如何实现设备及数据体验的情感智能,并试图研发出能够实时识别和反馈用户情感的初步算法。因为想法的不谋而合,两人决定联手研发有助于自闭症患者社交的可戴式眼镜,以此向美国国家科学基金会(NationalScienceFoundation)提出了立项申请,并得以通过。随后,Kaliouby也加入了MITMediaLab。在过去的很长一段时间里,MITMediaLab一直希望能将情感识别技术应用于各自行业。譬如,日本丰田(Toyota)希望借助该技术监测司机在驾驶过程中的疲劳状态,宝洁(ProcterandGamble)希望借此洞察用户对于新香味沐浴露的反馈,火狐(Fox)则想借其探究观众如何与电视节目互动。
为满足以上一系列的需求,经过多轮的商讨和研究,Affectiva应运而生,并获得MITMediaLab的全力支持。Affectiva的第一款产品诞生于年,客户多为媒体、广告和市场调研公司,如跨国市场调研公司KantarMillwardBrown。如今,已有多家公司正在使用该技术来观察和分析顾客的情感参与度。Affectiva将其产品定位为一个集计算机视觉、深度学习和世界上最大的情感数据库于一身的情感智能技术平台。三年前,Affectiva发布了情感识别软件开发包(SDK),紧接着又推出了移动版SDK,如今,该产品已经能在七种平台上运行。经过E轮融资后,截至目前Affectiva共融资万美元。而现如今,我们看到,事实上除了媒体、广告和市场调研公司之外,教育和医疗健康等领域也越来越