第二层是理解,旨在让机器人理解情绪。这是ELA模型的核心能力。它像一个情感中枢,能将捕捉到的语音语调、表情变化进行多模态融合分析,识别出背后的兴奋、低落、期待、孤独等情绪状态和潜在需求,而不仅仅是字面指令。
第三层是表达。旨在让机器人通过面部、声音和身体实现高维度的协同回应。基于理解结果,系统引入了长序列规控层(Long-term Planning),让爱湫的表达不再是碎片化的单点反应,而是具备时间跨度的连贯情绪流露。在执行端,依托Whole Body Control,系统能够精准调度全身关节的协同运作。它不仅能生成匹配的微表情(微笑、眨眼、蹙眉),还能在WBC的实时解算下,协调肢体做出自然且稳定的姿态反应——例如前倾表示关注、歪头表示好奇。这种底层运控技术的加持,配合3D超短焦投影、智能语音系统带来的深邃生物质感,让爱湫彻底摆脱了机械僵硬与“恐怖谷”效应,呈现出真正的“具身”生命力。