谷歌搜索增加AR功能,月底上线,直接浏览交互3D对象


Qualcomm & Pico XR创新应用大赛获奖作品

查看引用和消息源请点击:映维网

旨在帮助你完成各种各样的日常任务

映维网 2019年05月08日)有时候,理解新信息的最简单方式是“(耳闻不如)目见”。谷歌今天召开了一年一度的I/O大会,并且为Google Search(谷歌搜索),以及基于摄像头、计算机视觉和增强现实的Google Lens发布了全新的AR功能,并旨在帮助你完成各种各样的日常任务。

1. Google Search

Google Search的全新AR功能将于的本月底开始上线,届时你将能直接浏览3D对象并与之交互,直接将它们叠加在个人空间,从而获取详细的信息和感受实际的尺寸。例如,你从书中读到大白鲨有7米长是一回事,但在现实空间中真正看到7米长的大白鲨又是另一回事。所以当你搜索特定的动物时,你可以直接在AR环境中感受逼真的3D版本。

谷歌同时与NASA,New Balance,三星,塔吉特,Visible Body,沃尔沃和Wayfair等一系列品牌进行了内容制作方面的合作。所以无论你是在学习人体解剖学还是选购运动鞋,你都能直接在Search中直接与3D模型交互,并在现实世界中进行可视化。

自发布以来,用户已经就眼前所见向Google Lens询问了不计其数的问题,而这项工具则利用机器学习,计算机视觉,以及Knowledge Graph中的数百亿个事实进行解答。现在,谷歌进一步拓展了Google Lens的性能,支持它为视觉问题提供更多的视觉答案。

2. Google Lens

假如当你在一间餐厅并为今晚的晚餐犹豫不决。Lens可以自动突出在物理菜单中显示受欢迎的菜肴,并且根据Google Maps(谷歌地图)中的图片和评论可视化菜肴的实际外观和食客评价。

要实现这一点,Lens首先将识别菜单中的所有菜肴,并根据字体,风格,大小和颜色来区分菜肴和描述。接下来,它会根据Google Maps搜索餐厅,以及与菜肴匹配的照片和评论。

另外,如果你前往了一个外国城市并且不熟悉当地的语言,Lens将可以为你提供帮助。现在,你只需将摄像头指向外文字词,它将自动显示对应的母语翻译。Lens目前支持超过100种语言。

谷歌同时正在探索如何将有用的数字信息与物理世界中的对象联系起来。例如,对于旧金山德扬博物馆,你从下月开始将可以直接通过Lens获取画作背后的隐藏故事。又如,你可以直接可视化美食杂志《Bon Appetit》中的菜肴制作过程,只需把摄像头对准食谱即可显示具体的烹饪步骤。

3. Google Go

谷歌表示,全世界有超过8亿成年人难以阅读公共汽车时刻表或银行表格等内容。为了解决这个问题,谷歌把Lens带到了Google Go。

当你对准文字时,Lens将提供语音阅读。它同时可以突出相关的单词以便你进一步理解内容。另外,你可以点击特定的单词并搜索具体的定义。这项功能将首先登陆Google Go。Google Go中的Lens仅为100KB多一点,而且支持低于50美元的智能手机。

谷歌表示:“Google Search和Google Lens中的所有这些功能旨在为你提供可视信息,通过将信息和答案放在最有意义的地方(眼前)来帮助你探索世界和完成工作。”

原文链接https://yivian.com/news/60878.html
转载须知:转载摘编需注明来源映维网并保留本文链接
英文阅读:点击前往映维网合作伙伴 RoadtoVR 阅读专业英文报道
入行必读:AR/VR,下一个计算机浪潮,下一个三十年科技文明!

更多阅读推荐......

发表评论(仅展示精选评论)

首页