ARKit+虚幻引擎,60万人观看乐高人偶节目表演( 二 )

对于这一期节目,Animal Logic制作了Rogowsky的乐高人偶,利用《乐高大电影2》的asset进行设计,并将其导入至Unreal引擎。接下来,Rogowsky穿上了一件动捕套装,并搭配以标志性的表情,实时控制乐高人偶来主持知识竞赛。

这一集竞赛非常成功,一共吸引了60万人参加。如同以往那样,乐高版本的Rogowsky用幽默且引人入胜的口才逗乐了大家,并且将气氛一步步引向高潮,同时根据观众要求实时做出各种各样的表情和动作。Rogowsky评论说:“我们获得了大量的反馈。他们都喜欢《乐高大电影2》,他们都喜欢乐高版本的我。我们能够取得的成功令人大开眼界。”

实际上,乐高人偶版是由iPhone X和动捕套装驱动。苹果的ARKit面部追踪能够实时为Unreal引擎馈送Rogowsky的面部表情,而Xsens动捕套装则实时提供了身体运动反馈。

ARKit+虚幻引擎,60万人观看乐高人偶节目表演

图2/3

与一般的动捕不同,Rogowsky的动作必须对应于更加有限的乐高人偶动作范围。真正的Rogowsky可以自由地移动双手和双腿,但是迷你人偶无法朝各个方向弯曲。例如,它不能弯曲膝盖或闭合手指。为了匹配Rogowsky的动作与乐高人偶,Animal Logic编写了一个定制的转录器,它可以解读Rogowsky所做的任何动作,并使其匹配乐高人偶的运动范围。

推荐阅读