Android增强现实(AR)获得根本性变革,近日谷歌正在为研发工具包ARCore加到Depth API,这项新功能仅有用单个摄像头就可以创立深度图,而不像之前必须从两个摄像头或ToF传感器。当移动摄像头时,它不会自动捕猎多个图像,然后较为这些图像来估算你与每个像素的距离。
这个功能让人印象深刻印象,但谷歌对API的预期用途甚至更佳:用作遮盖,让数字对象看上去与现实对象重合,比全然的AR覆盖面积更加无缝地融合了增强现实世界。从今天开始,Scene Viewer(一种用作搜寻中的AR的Google开发人员工具)将为多达2亿台用于ARCore的Android设备获取遮盖功能。在AR中有无数的深度同构和遮盖的潜在应用于,谷歌早已指出他们中的一些人将如何工作,还包括改版Houzz应用程序,使该程序更佳的将数字样本家具模型在实际空间中现实地展示,同时使数字对象需要与它们交互并借此获得对系统。
尽管Depth API反对没传统深度传感器的单摄像头设备,但它也预计ToF传感器将构建更慢的动态遮盖,从而需要将数字对象的某些部分隐蔽在现实运动对象之后。最近三代iPhone都配有了前置深度传感器,以及近期一些三星和LG设备也开始减少飞行中时间后置摄像头,预计其他公司在2020年效仿他们的作法。有兴趣采访新的Depth API的开发人员将必须号召谷歌对合作者的敦促,因为该软件似乎还没普及到每一个人。
用户可以在Play Store获取的近期版本的Android Houzz应用程序中看见这些新功能的运营情况。引荐读者:Google正面应战苹果,用ARCore围歼ARKit引荐读者:如何评价谷歌发售的ARCore?(公众号:)引荐读者:通过引进 ML,谷歌ARCore动态自拍电影 AR 的细致效果更进一步原创文章,予以许可禁令刊登。
下文闻刊登须知。
本文来源:乐虎·lehu-www.aieuu.com