Lasertag技术突破:Quest 3实现免扫描实时环境建模,重构混合现实交互逻辑​

Meta的Quest 3和Quest 3S头显允许用户通过扫描房间生成3D场景网格,供混合现实应用使用。虚拟物体可借此与物理环境互动,或对真实空间进行视觉重塑。然而,Meta当前的系统存在两大问题:其一,用户需手动完成扫描流程,耗时从20秒到数分钟不等,具体取决于房间大小和形状;其二,生成的场景网格仅代表扫描瞬间的环境状态,后续家具移动或物品增减均无法自动更新,除非用户重新扫描。

为解决这些问题,Lasertag开发者Julian Triveri在Quest 3的混合现实激光枪战游戏中采用了另一种技术路径:深度API(Depth API)。该API通过头显前置双追踪摄像头的视差计算生成实时第一人称深度帧,有效距离约5米,常用于混合现实中的动态遮挡处理。在Lasertag的公开版本中,深度API不仅用于虚拟物体的遮挡,还实时判断激光是否与真实环境几何体碰撞或击中对手。

而Lasertag的测试版更进一步:Triveri利用深度帧在GPU上持续构建代表物理环境的3D体积纹理。这意味着即使玩家未直接注视某区域,只要此前曾观察过该位置,激光碰撞仍可被准确模拟。内部版本甚至通过开源Unity实现的“行进立方体”算法将体积纹理转换为网格。早期版本中,Triveri还尝试过联网高度映射技术,通过多台头显共享实时构建的高度图,但该功能目前尚未开放。

为何Meta未采用连续网格化替代现有房间扫描系统?答案在于硬件差异。苹果Vision Pro和Pico 4 Ultra依靠硬件级深度传感器实现后台持续环境扫描,而Quest 3及3S依赖计算密集的计算机视觉算法生成深度信息(Quest 3辅以红外投影)。深度API的使用本身已对CPU、GPU和电池续航造成显著压力,构建网格更会加剧资源消耗。因此,Lasertag选择以性能和续航为代价换取免设置流程的连续环境理解能力,而Meta官方系统仍需保留初始扫描流程作为基准。

Meta曾在1月表示计划实现场景网格自动更新,但暗示仍需依赖初始扫描作为基础。目前,Lasertag已免费登陆Meta Horizon平台,公开商店版本使用实时深度帧处理激光碰撞,测试版则通过持续构建3D体积实现更全面的环境交互。这一技术探索或为未来多玩家混合现实系统提供重要参考。

来源:uploadvr

(0)

Notice: Object of class WP_Post could not be converted to int in /www/wwwroot/game.vrcoast.cn/wp-content/themes/justmedia/themer/core/wpcom.php on line 232
上一篇 4天前
下一篇 2小时前

相关推荐

发表回复

登录后才能评论