情感|出行洞察:智能座舱中的情绪识别( 六 )

数据收集方法存在局限性

  • 目前情绪识别研究大多是从数字信号分析的角度出发 , 探究情绪与信号特征的关系 。 但是本身训练模型的数据集如DEAP 数据集、MAHNOB-HCI 数据集、eNTERFACE’05数据集等采用的主体诱导式研究方法对数据产生了很大的局限性 , 非常可能和真实场景的情绪情景相差甚远 。
  • 使用VR进行沉浸式情绪诱发
车内应用痛点: 情绪识别的实际应用过程中 , 如何快速准确地采集高质量的多模态信号是一个关键问题 。
  • 车企更倾向于无接触的感知方法 , 在自然状态下收集用户数据 , 达到无感交互的效果 , 如摄像头、红外摄像头、微型传感器、远程rPPG等
  • 由于行车过程中存在各种环境不稳定因素 , 如车身剧烈晃动、快速变化的阳光、不同乘车人体态区别等
  • 目前情绪识别算法多通过A柱、方向盘上安装的摄像头对驾驶员进行检测 , 而其他乘车人则无法使用
  • 应用趋势:将算法直接搭载在已有的DMS与OMS硬件上进行实现
介入手段过于简单
  • 目前市面上更多的情绪介入手段局限于音乐、娱乐节目、家人外呼、环境调控、冥想诱导等方式 , 在行车安全方向的有效性难以预知
  • 误判误报无法善后
  • 虽然误判误报在娱乐场景下的结果并不严重 , 但如果在与道路安全防范、自动驾驶等结合下的场景 , 算法中的误判误报可能会造成严重的后果与损失 , 而目前市面上的技术还无法解决这一痛点 。
局限于车内无法形成完整闭环
  • 算法与其他硬件相结合打造智能一体化汽车
  • 目前市面上的情绪识别多内嵌在车载语音助手中 , 而未来也可能与其他智能硬件打通 , 将车内车外场景进行联动 。
隐私侵权问题
  • 实际应用中根据不同国家的法律法规能够采取的数据会有所限制(如日本的人脸与语言数据)
成本问题
  • 尽管情绪识别的算法模型大部分情况下能够通用 , 涉及到定制化如语言或者文化导致的表达差异还需要定制化的开发以及训练 , 涉及到百万元以上的开发成本 。
05
行业总结
技术层面来说 , 目前国内大部分的情绪识别技术的感知信号源仍来自于图像、自然语言获取和可穿戴设备的PPG信号 , 技术的领先性在于训练算法的多模模型中因子的完善度和融合还原度 。 同时目前市面上对于技术的真实性和准确性的评判标准缺乏客观性 。 目前可以预测 , 对于情绪识别来说下一技术拐点预计会在脑电波硬件市场爆发的时间点 , 从融合EEG信号层面进行突破 。
市场应用层面分为与安全相关的企业刚性需求和与娱乐相关的个性化需求 。 在车载方面 , 情绪识别已经逐渐成为“智能座舱”的买点之一 , 各大车企也在纷纷发力 。 尽管车内空间的局域性为情绪数据采集提供了绝佳的条件 , 但在无接触条件下的采集分析精准度以及情绪识别如何联动安全域、娱乐域功能做到闭环服务仍旧是未解决的功能痛点 。

推荐阅读