环球门户网

iOS 14悄悄向苹果眼镜迈进了一大步

更新时间:2021-09-14 15:07:46

导读 在2020年世界开发者大会(WWDC)上,苹果宣布了各种操作系统的大量更新,但没有提到任何新硬件。然而,关注WWDC一段时间的人会知道,隐藏在软

在2020年世界开发者大会(WWDC)上,苹果宣布了各种操作系统的大量更新,但没有提到任何新硬件。然而,关注WWDC一段时间的人会知道,隐藏在软件公告中的技巧几乎可以揭示设备的下一步发展。

iOS  14悄悄地向Apple  Glasses迈出了一大步

表面上看,都是关于iOS 14的。苹果已经转向ARM和自己的硅片,但在这之下,所有迹象都清楚地表明,你可能会错过苹果眼镜。

苹果在谈论iOS 14或iPadOS时几乎没有提到增强现实(AR),但如果将一些单独的语句放在一起,就会出现更清晰的画面。例子有——AirPods Pro上的空间音频、面向开发者的基于位置的AR工具、应用剪辑、Apple Vision和3D图标的“手势”检测。

iOS  14悄悄地向Apple  Glasses迈出了一大步

有这么多提示和线索,你需要的只是那些智能眼镜,让它们融合在一起。

第一,ARKit4。ARKit是一套面向AR应用开发者的工具,苹果表示,它为-iOS提供了动力,这是全球最大的AR平台。你不要把iOS当成AR平台,因为这项技术还是非常非常新的。然而,其中一个ARKit演示展示了新的“锚点”,以及指向iOS 14和iPadO 14的锚点将如何变化。

这些位置锚使应用程序能够在现实世界的特定位置放置增强现实作品,如路标、雕像甚至游戏角色。这是苹果迈出的第一步。在所有这些地方,戴着苹果眼镜的人都能看到这些虚拟的路标和物体。

除了像口袋妖怪Go这样的游戏,我们还没有真正看到AR在现实世界中迈出一步。宜家只是在你的客厅里移动虚拟家具。苹果在新iPad中使用了LiDAR技术。

iOS  14悄悄地向Apple  Glasses迈出了一大步

在iOS 14和iPadOS 14设备上,ARKit 4可以将苹果地图中的地理坐标与高分辨率地图数据放在一起。ARKit工程师Quinton Petty称之为“视觉定位”,这意味着您将能够相对于周围环境更准确地定位设备,而不仅仅是使用GPS数据。这对AR体验很有意义。苹果还表示,其所有基于位置的ARs都使用运行在您设备上的先进机器学习技术,并且云中没有任何处理,苹果不会向自己或其他任何人发送任何图像。

除了这些“定位主播”,AR主题也有细微的点头,所以智能眼镜是AirPods Pro的空间音频功能。此次更新为您的耳塞带来了3D音效。除非你用AirPods看了很多杜比Atmos的电影,为什么耳塞需要3D音效?

这次更新的真正好处可能是手机自带AR,可以让你对地图上的音频点头,从而为你提供方向或者Apple Glasses眼镜上的AR。

就App Clip而言,这是一个直接的好处,比如无需实际下载完整的应用程序就可以付费,但最终的目的似乎是通过扫描实际对象来帮助您启动ar体验。然后,在苹果的Vision框架下实现了手势控制的“手势”识别,并在ARKit 4中使用了对不同物体和材质进行分类的“场景几何”。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。