Microsoft|微软专利分享HoloLens通过光线投射与远距离对象进行交互的方法( 二 )


在一个实现中,深度成像组件22可包括右立体摄像头和左立体摄像头 。来自两个摄像头的时间分辨图像可以相互注册并组合以产生深度分辨视频 。
在一个实现中,“结构光”深度摄像头可配置为投射具有许多离散特征(例如线或点)的结构红外照明 。摄像头可配置成对从场景反射的结构化照明成像 。基于成像场景的各个区域中相邻特征之间的间隔,可以构建场景的深度映射 。
在一个实现中,“飞行时间”(TOF)深度摄像头可包括配置成将脉冲红外照明投射到场景上的光源 。可以配置两个摄像头来检测从场景反射的脉冲照明 。
增强现实功能可能基于铰接式手部交互 。对于近端独享,可利用直接交互,由此可将手视为直接操纵全息图 。在一个示例中,全息图远离用户,例如大于基于臂长的阈值 。可以计算用户或用户的延伸部分与预期目标之间的距离 。通过这种方式,可以将相对距离与阈值距离进行比较,以确定预期目标相对于用户视为“近”(在可及范围内)还是“远”(不可及) 。对于远距离对象,可以赋予用户“超自然”能力,以便他们可以与远距离全息图交互,无需“走向”全息图 。
在一个实现中,可以通过发射光线的方式来允许用户对远距离虚拟对象进行定位、选择和操作 。对于这种情况,VR系统经常是通过控制器发射光束的方式来进行实现 。对于增强现实,可以把相同的心智模型和用户体验组合到一组直观的界面控件中,例如直接在用户手掌发射光线 。
Microsoft|微软专利分享HoloLens通过光线投射与远距离对象进行交互的方法
文章图片

这种基于手的光线投射示例如图所示 。用户的左手255和右手260以开放式构象表示 。第一光线265显示为源自用户左手255的手掌,描绘为终止于选择光标270的虚线 。第二光线275显示为源自用户右手260的手掌,描绘为终止于选择光标280的虚线 。与以前的模型相比,这种光线投射提供了众多优势,例允许使用注视投射来指向对象,然后使用用户的手来控制动作的方法 。直接从手部施放可以实现更直观的瞄准和精细控制 。通过使用手掌,用户同时保留了用手指操纵目标对象的自由 。
Microsoft|微软专利分享HoloLens通过光线投射与远距离对象进行交互的方法
文章图片

图3显示了增强现实环境中光线投射的示例方法300 。在310,方法300包括在诸如头戴式显示器的显示设备上呈现一个或多个虚拟对象 。一个或多个虚拟对象可以在沉浸式环境中渲染,并且可以由虚拟对象渲染机进行变换,以根据头戴式显示器的位置和方向修改渲染虚拟对象的位置、大小、形状或角度 。每个渲染的虚拟对象可以呈现在相对于显示设备的环境中的对应位置 。另外,可实时连续修改渲染虚拟对象,以根据头戴式显示器的变化位置和方向保持渲染虚拟对象的适当透视图和配置 。在这方面,如果用户靠近渲染的虚拟对象,其相对距离将更接近用户 。类似地,如果用户远离渲染的虚拟对象,其相对距离将显示得离用户更远 。

推荐阅读