在华中科技大学数字媒体与智能网络实验室,一款名为“小赫”的面部仿真『机器人』️展示了其独特的能力。这款由喻莉教授团队历时五年打造的『机器人』️能够展现十种笑容,并模仿人类的各种表情。
春节期间,三名博士生在导师喻莉的带领下,解决了“小赫”最后一项技术难题——调整面部硅胶厚度,以优化其表情表达。尽管“小赫”在大笑时偶尔会撕裂嘴角,但团队正在不断改进材料性能,力求让其表情更加自然逼真。
“小赫”戴着一顶俏皮的帽子,五官分明,尤其是那双大眼睛。“小赫”能模仿人的面部表情。它的眼睛里装有高清摄像头,可以模拟人眼观察世界。摄像头采集到的外部图像会被传给控制单元,这是一台微型计算机,负责处理图像并控制机械运动,从而带动面部硅胶的动作,形成丰富表情。
喻莉介绍,『机器人』️的面部表情是不少人形『机器人』️研发机构攻关的重点。早期的人形『机器人』️面部自由度不足十个,仅能完成简单表情,而“小赫”面部自由度已增至二十多个,能做出“嘟嘟唇”、“噘嘴”等较为复杂的面部动作。
“小赫”的研发团队汇集了来自计算机视觉、情感计算、心理学、神经科学及解剖学等多个领域的六十名跨学科人才。从面部造型、支撑构建到硅胶倒模成型都在实验室内完成,颅内集成了传感器、电机、微处理器等主要元器件及写入程序,全部是团队自主研发。在今年1月4日召开的湖北科技创新大会上,“小赫”身上的人机交互与情感理解关键技术荣获技术发明奖二等奖。
除了模仿表情,“小赫”还能绘声绘色地讲故事。当识别到对话意图后,“小赫”嘴巴随语音自然张合,面部“肌肉”也随之蠕动,仿佛真人般生动。团队研究了人面部肌肉从收缩到舒张的生理机制,将这种“肌肉运动链”转化为『机器人』️的控制算法,使“小赫”在说话时能带动鼻子和脸颊产生自然的肌肉牵拉感。
何双江博士从事『机器人』️复杂情感分析。他指出,在自然的对话交互中,“小赫”能通过捕捉极细微的生理动作来读懂人心。例如,“憎恶”这种复杂情绪通常由“愤怒”和“厌恶”等多种基础情感叠加而成。市场上多数监控或交互系统在检测到“皱眉”、“眼睑收紧”等信号后,通常直接将其判定为“愤怒”。而“小赫”不仅能识别强烈的愤怒情绪,还能捕捉诸如“下唇轻微抬起”等细微面部动作,从而感知隐藏其中的“厌恶”信息,对“憎恶”这一复合情绪做出更准确的判断,实现对人类深层情绪状态的正确理解。
未来,“小赫”的技术将被应用到更多人形『机器人』️上,推动其在情感沟通方面的发展。




