Unity XR交互工具包2.3版本中的新功能
http://www.souvr.com/UploadFiles/Serve/2023/3/202303161335206677.jpg随着XRI 2.3的更新,Unity将在预发布中推出Unity XR Hand Package。XR Hands是一个新的XR子系统,它增加了支持Unity中的手部跟踪的API。这包括对OpenXR的内置支持,对元平台的支持也将很快推出。此外,外部硬件提供商可以通过遵循提供的API文档,从他们现有的XR SDK中输入手动跟踪数据。XRI 2.3还支持通过XR戳交互器进行自然戳交互。这允许用户在3D UI上用手或控制器与XRI的UGUI画布元素进行戳动交互。
使用眼睛凝视进行交互由于Unity通常不建议应用程序完全由眼睛控制,所以其引入了一种额外的控制器形式和基于手的交互辅助来帮助用户选择特定的对象XR可交互快照卷。该组件可作为凝视交互器的补充,因为它允许在瞄准对象周围的定义区域将交互捕捉到附近的可交互对象。捕捉体积也可以在没有凝视交互器的情况下使用,以便于用户选择对象。
通过联觉效应(Affordance)将互动带入现实
用双手拉伸、摆动和旋转虚拟物体新版本中还添加了一个交互组组件。这种行为允许开发人员将交互器组合在一起,并按优先级对它们进行排序,这允许每个组在给定时间只有一个交互器进行交互。例如,用户戳一个按钮将暂时阻止其他交互器与场景交互。这可以防止用户在远处工作时不小心抓住附近的东西,并防止其在近距离抓住或戳对象时光线投射到场景中。
使无需头显的XR迭代变得更加容易此外更新中还添加了新的模拟模式,因此用户可以在常用的控制模式之间切换。启动时,设备模拟器会激活新的第一人称射击(FPS)模式,该模式可以操纵头显和控制器,就好像整个玩家都在转动躯干一样。然后,用户可以在其他模式中循环操作各个设备:头显、左控制器和右控制器。要使用XR设备模拟器,请从包管理器中导入示例。
体验新版本中XRI的示例项目经过了漫长的等待,新版示例项目现在终于来了。新的示例项目展示了用户可以在XRI 2.3中使用的一系列XR体验构建模块。该项目分为几个站,并包括几个简单的使用案例,这能够帮助用户更清楚的了解XRI的每个主要功能是如何工作的。
页:
[1]