【小哈划重点:市场上的大多数其他头显都使用某种手柄控制机制,因此几乎每个人都不熟悉基于手势的控制系统。】
关于Apple Vision Pro头显的传闻已经流传了多年,但一直不清楚的是它将如何控制。早期有一些关于操控机制的传闻,随着泄密更多地集中在手势控制上,这些传言最终消失了,事实证明,这就是苹果的发展方向。
Apple Vision Pro使用手势、眼动追踪和语音命令进行导航。例如,用户可以通过凝视显示屏上的某些内容来选择它,然后通过手指轻敲确认。滑动是通过手指移动完成的,只需要很小的动作。用户可以查看搜索栏中的麦克风按钮,然后开始说话以听写文本,Siri语音命令可用于打开和关闭应用程序、播放歌曲等。
评论者表示,Vision Pro导航体验需要时间来适应,因此会有一个适应期。市场上的大多数其他头显都使用某种手柄控制机制,因此几乎每个人都不熟悉基于手势的控制系统。
除了以上操控方式,Apple Vision Pro还支持用户连接iPhone或蓝牙键盘进行打字,以及基于虚拟键盘打字。
对于许多人来说,全新操作界面并不容易习惯,但从好的方面来说,应用程序布局和导航将立即被那些使用过iPhone或iPad的人识别出来。Apple Vision Pro应用程序排列在类似于主屏幕的“主视图”中,因此并非所有内容都陌生。
Apple Vision Pro头显可基于“神经网络”扫描面部,以创建超逼真数字角色
新浪VR
Apple Vision Pro头显可让用户在使用FaceTime时用超逼真的化身作为形象。如WWDC 2023期间所示,用户可以使用头显扫描脸部,以创建自己的数字“角色”,该角色将在视频通话期间出现。
与使用Microsoft Teams和Meta Horizon Worlds等应用制作的卡通化身不同,苹果的目标是创建虚拟版本的脸部,以准确反映用户的真实面貌。在苹果WWDC23上展示的视频中,用户将头显举在脸前,允许设备使用“先进的编码器 - 解码器神经网络”进行面部扫描,苹果称该神经网络已经在“数千人的不同群体”上进行了训练。
基于此,Apple Vision Pro头显可以创建用户的数字角色,当用户将FaceTime与头显配合使用时,它可以追踪面部和手部动作。仅从视频中很难判断此功能的实际效果如何,但除了明显缺乏头发纹理外,角色看起来相当逼真。
无论哪种方式,当用户没有摄像头直接对准面部时(就像在iPhone或Mac上使用该应用程序时一样),使用FaceTime似乎都是可行的解决方案。但仍然期待看到它在不受控环境中的表现,例如佩戴了面具的情况下。
Apple Vision Pro头显由该公司新的混合现实操作系统vision OS提供支持,明年初发布时售价为3499美元。