苹果发布ARKit 4,带来LiDAR Depth API,让虚实遮挡更逼真

查看引用/信息源请点击:映维网

深度信息可以令虚拟对象遮挡更为逼真

映维网 2020年06月23日苹果在今天凌晨的开发者大会WWDC上发布了ARKit 4,而你将能通过全新的Depth API访问iPad Pro搭载的激光雷达扫描仪(LiDAR)的详细深度信息。

激光雷达扫描仪(LiDAR)内置的高级场景理解功能允许Depth API利用关于周遭环境的每像素深度信息。当与场景几何体生成的三维网格数据相结合时,通过启用虚拟对象的即时放置并将与物理环境无缝混合,深度信息可以令虚拟对象遮挡更为逼真。这可以支持应用程序部署全新的功能,比如更精确的测量和将效果应用到用户环境中。

除了Depth API,ARKit 4还带来了Location Anchoring功能和更好的面部跟踪支持。

Location Anchoring利用了苹果地图中更高分辨率的数据,可以通过iPhone和iPad应用将AR体验置放于某个世界特定点,如著名地标的旁边。它允许你在特定的纬度、经度和高度坐标锚定AR内容。用户可以在虚拟对象周围移动,并从不同的角度查看它们,一切都如同通过摄像头看到的真实对象一样。该功能需要iPhone XS, iPhone XS Max, iPhone XR或更新版本,并且只支持特定的城市。

对面部跟踪的支持已经扩展到所有搭载A12仿生芯片或更新版本的设备的前置摄像头,包括新款iPhone SE,这样更多用户都可以通过前置摄像头享受AR体验。

原文链接https://yivian.com/news/75881.html
转载须知:转载摘编需注明来源映维网并保留本文链接
英文阅读:点击前往映维网合作伙伴 RoadtoVR 阅读专业英文报道
入行必读:深度分析:AR的过去、现在、未来与现实

更多阅读推荐......

发表评论(仅展示精选评论)

资讯