-
- 查看全部{{ item.replyCount }}条回复> 查看更多回复>
- 查看更多回复>
湖北日报讯(记者张歆、通讯员马国庆)在未来,机器人或许能比相识多年的好朋友,更懂你的心。1月4日,2026年湖北科技创新大会胜利召开,华中科技大学电子信息与通信学院喻莉教授团队的成果“面向复杂人机交互的面部动作感知与情感理解关键技术与应用”荣获技术发明奖二等奖。
人的面部肌肉能产生各种表情,是人类非语言交流的重要工具。“喜怒哀惊恐厌被认为是人的基础情感,但在现实情境中,不同人的面部结构、肌肉习惯和情绪表达方式并不一致,我们的研究目标,是在个体差异中提炼情感表达的共性规律。”喻莉教授以“憎恶”这一复杂情绪为例说明:现实场景中,“憎恶”往往由“愤怒”和“厌恶”等多种基础情感叠加而成。市场上的多数监控或交互系统,在检测到“皱眉”“眼睑收紧”等信号后,通常直接将其判定为“愤怒”。而该团队提出的算法,除了能够识别强烈的愤怒成分,还能捕捉诸如“下唇轻微抬起”等细微面部动作,从而感知隐藏其中的“厌恶”信息,进而对“憎恶这一复合情绪作出更准确地综合判断”,实现对人类深层情绪状态的理解。
喻莉和团队成员交流。湖北日报全媒记者 张歆 摄
该团队长期从事人工智能和图像处理等研究。五六年前,一次跨领域合作契机,使研究方向拓展至人脸表情与情感理解领域。相关研究融合了计算机视觉、情感计算、心理学、神经科学及解剖学等多学科知识。通过对多种人脸表情进行分析和特征提取,以及海量人脸数据的分析和建模,团队在基础表情的识别任务中的准确率超过95%,同时具备对面部细微变化和微表情的感知能力。尤其突出的是,团队提出的创新算法能够对惊恐、惊喜、敬畏等复合表情进行有效感知和理解。在光照变化、局部遮挡、画面模糊以及头部偏转等复杂自然环境下,对复合表情识别的准确率仍可超过70%,相关性能指标达到国际领先水平。
在情感理解之外,研究同样强调交互的自然性与表达的真实性。在实验室中,该团队博士和硕士研究生们利用3D打印与硅胶材料制作机器人面部结构模型。当被试者做出微笑、皱眉、惊讶、耸鼻等表情时,机器人脸通过视觉系统实时感知,并同步生成对应的面部动作反馈,表现出较高的灵活性与自然度。
据悉,机器人面部结构已历经多轮迭代升级。早期模型的面部自由度不足10个,仅能完成简单表情;目前面部自由度已提升至20余个。鼻子和脸颊可随情感状态和语速变化产生自然联动,嘴巴也能够完成“嘟嘟唇”“噘嘴”等较为复杂的面部动作组合,为情感表达提供更丰富的物理基础。
“问题不在于机器人能否拥有情感,而在于缺乏情感交互能力的机器人是否真正具备智能。”喻莉教授表示,团队的研究目标是让人形机器人从“形似”到“神似”,使其能够感知人类的复杂情绪并作出具有共情特征的反馈。目前,相关技术已经在心理健康陪伴、老年人健康监护、自然人机交互等场景中展开应用探索,未来在人形机器人领域具有广阔的发展前景。
喻莉教授和团队成员交流。湖北日报全媒记者 张歆 摄
-
回复