苹果发布ARKit 4,带来LiDAR Depth API,让虚实遮挡更逼真

查看引用/信息源请点击:映维网

深度信息可以令虚拟对象遮挡更为逼真

Vision Pro QQ群交流653565822

映维网 2020年06月23日苹果在今天凌晨的开发者大会WWDC上发布了ARKit 4,而你将能通过全新的Depth API访问iPad Pro搭载的激光雷达扫描仪(LiDAR)的详细深度信息。

激光雷达扫描仪(LiDAR)内置的高级场景理解功能允许Depth API利用关于周遭环境的每像素深度信息。当与场景几何体生成的三维网格数据相结合时,通过启用虚拟对象的即时放置并将与物理环境无缝混合,深度信息可以令虚拟对象遮挡更为逼真。这可以支持应用程序部署全新的功能,比如更精确的测量和将效果应用到用户环境中。

除了Depth API,ARKit 4还带来了Location Anchoring功能和更好的面部跟踪支持。

Location Anchoring利用了苹果地图中更高分辨率的数据,可以通过iPhone和iPad应用将AR体验置放于某个世界特定点,如著名地标的旁边。它允许你在特定的纬度、经度和高度坐标锚定AR内容。用户可以在虚拟对象周围移动,并从不同的角度查看它们,一切都如同通过摄像头看到的真实对象一样。该功能需要iPhone XS, iPhone XS Max, iPhone XR或更新版本,并且只支持特定的城市。

对面部跟踪的支持已经扩展到所有搭载A12仿生芯片或更新版本的设备的前置摄像头,包括新款iPhone SE,这样更多用户都可以通过前置摄像头享受AR体验。

本文链接https://news.nweon.com/75881
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

更多阅读推荐......

资讯