请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
戴客 首页 科技资讯 混合现实 行业动态 查看内容

苹果ARKit能否顺利的过渡到AR眼镜上?

北极蚊子 2017-8-24 11:29

12年谷歌的I/O大会上出现了一款让人们耳目一新的产品,它可以在线直播,可以使用AR应用,能语音识别和触控甚至能进行人脸识别与表情识别,它就是“谷歌眼镜”,虽然AR智能眼镜早已应用在专业领域,但其名称却鲜为人知,而google glass是第一个被推送到普通大众眼前的智能眼镜,它的问世也成为了我们此篇文章的开端,AR及智能眼镜!


谷歌眼镜的问世也拉起了个巨头们在穿戴设备上争霸的序幕,随之而来的则是吸金数十亿美元的Magic leap以及微软的Hololens AR增强现实眼镜。然而在智能眼镜及AR这条路上,苹果似乎慢了那么半拍,虽然早在2013年就有传出过苹果的iGlass相关消息,但苹果却一直没有正面回应。


直到近两年才苹果在陆陆续续放出了参与AR领域的消息,其第一次被媒体曝光的时候还是在2015年的3月份,在15年至16年期间苹果不断的进行挖人和项目收购,包括对手Magic leap 及微软也未能幸免被挖墙角,并且还收购了Metaio、Faceshift、Emotient、Flyby Media等AR领域相关的公司,以上四家分别是做AR空间建模、实时面部表情捕捉、面部表情识别分析、给现实物体添加AR信息。


时至今日已有消息称目前苹果已经有了千余人的顶尖AR团队,并且AR项目作为了优先研发对象,虽然目前AR在大众心里还可能只是以pokemon go的形式存在手机屏幕当中,然而即便火遍全球,但在一年后pokemon go的用户流失高却达90%,这也暴露出了AR目前这个阶段所不能避免的问题,那就是:交互糟糕、内容有限、一次性体验。(不管你觉得好不好玩,但我是玩了一周后就删掉了)


pokemon go的列子也给苹果敲响了一个警钟,AR固然会给用户带来耳目一新的感觉,但实际体验是否真的能满足用户的需求?目前苹果的ARkit主要的承载主体是手机,而手机就已经限制住了人与AR物体的交互体验,只能通过屏幕滑动及观看,哪怕是你AR物体能保持住静止不动,但能与之交互的也只是用手指滑动屏幕而已,而目前得到的IPhone8的消息是并没有手势识别交互功能,而手势交互却也是AR最的基础交互方式之一。

内容:


虽然交互成为了ARkit的限制因素之一但同时也有一大优势,那就是它爸爸是苹果!庞大的开发者可以为ARkit提供源源不断的内容,但手机AR内容也会面临几大大问题,就是制作成本高、内容同质化,以DEMO为主体验性差,目前VR应用算是比较典型的列子了。但是想要进军AR智能眼镜也的话手机是苹果的必经之路,其与微软的策略不同(直接上Hololens,前期主要以专业领域为主),其主要是先通过对手机AR的开发,在拥有庞大的手机用户的基础之上,AR开发者在早期就能很快的获得盈利,进而进一步的开发更多的AR应用,网罗开发者,而不会造成VR缺乏内容的局面。

硬件技术:


然而智能眼镜的开发并不像手机那样这么轻松,早在2008年苹果就申请过相关的头戴式眼镜的专利,但是时至今日却一直迟迟不见踪影,谷歌眼镜的消亡其主要原因也是因为价格差、体验并没有消费者预期的那样,从发布到退市仅仅不到3年,不过看到微软、Facebook和苹果在AR方面的崛起,谷歌眼镜最近又开始出现在了人们眼前,不过现在是主打企业市场。


以Hololens为例,虽然其作为目前AR智能眼镜的代表,但也存在较多的问题与弊端,主要几大问题是:光学、渲染、人机交互以及操作系统、小型化(续航是通病就不扯了),但还有一个特别大的问题导致其不能进入消费领域的就是太贵了,3000美金注定其实以高冷的姿态走完其一生,那么问题就来了~苹果是否能解决这些问题呢?答案是:目前是没可能的。虽然苹果发布了ARkit但目前也只是AR形态的初级阶段,从手机过渡到眼镜仍然需要漫长的过程。


谷歌眼镜原理图

而且做眼镜与做手机截然不同,涉及的领域比手机要多太多和复杂,而光靠一个企业很难完善:如光学显示模组,与飞行员的头盔类似,多以单色调的HUD抬头显示为主,索尼智能眼镜算是代表之一。谷歌眼镜算是消费级智能眼镜的雏形,但也同样存在不少弊端,隐私类的话题暂且不聊,谷歌眼镜采用的LCOS投影显示(微软也是)非常容易受到外界光线的干扰,以及人们眼睛在使用眼镜的同时需要不停的在显示屏与现实当中不断变焦而导致视觉疲劳,那么问题就来了,如何让眼镜避免这类问题呢?

显示:


Magic Leap 拥有一种名为 Fiber Optic Projector 的核心技术,这种 “投影仪” 与传统意义上的投影相比,尺寸更小,功耗更低,可以通过一根直径 1 毫米长 9 毫米的光纤投出几英寸彩色图像。与传统棱镜相比这个可以大大缩减智能眼镜的体积,他可以通过多个光纤末端阵列堆叠的方式来实现 FOV (Field of View) 显示,或许也能解决让部分显示区域不发光,只让投影出的物体发光。

SLAM:


这就涉及到无人机及无人驾驶的SLAM技术,基于计算机视觉深度学习,摄像头需要对现实物体进行3D 重建,把索要展示的内容进行准确的显示与现实所融合,位置、高度以及方向等等,整体过程可以分为以下5个步骤:


之所以我们现在所看到的AR物体与现实格格不入,一是渲染目前无法做到照片级,如下图的Magic Leap的公司演示视频中一款躲在桌腿后面的机器人。我们不知道桌子腿是实时重建,还是预先建模,再把虚拟机器人放在真实桌子腿的后面。如果这个是以桌子腿为参照物,那么换做其它场景机器人会以什么样的方式出现呢?是悬浮在空中?是横着出现还是?


上述提到的深度摄像方面问题在 3D 重建上仍然存在,这就是为什么目前无法广泛使用。研究人员正在研究,让单目 RGB 摄像头支持实时的照片级 3D重建。这个技术至少需要 12-18 个月才能应用于产品中。也是因为这样,“真正的”消费级 AR 智能眼镜还是离我们有一段距离,那么距离有多远呢?


最近Oculus首席科学家迈克尔o阿卜拉什(Michael Abrash)曾表示,最早也要等到2022年,增强现实眼镜才可能开始取代智能手机,而上述提到的问题只是智能眼镜方面的冰山一角,那么问题来了在5年的时间内苹果能否能依托ARkit存活到智能眼镜的硬件完善,闻道有先后,术业有专攻,苹果虽然在眼镜方面可能目前暂时比不上微软,但从目前苹果的动作来看,苹果未来将会为AR打造一个软件生态系统,并成智能眼镜当中的IOS。

结语:

虽然说苹果不算是第一个发布AR SDK的厂家,但目前它是做的最好的,目前ARkit 已经拥有大批的开发者涌入,虽然有消息称苹果明年将会发布一款消费级AR智能眼镜,以目前的技术基础来很,很有可能会议BT300的形式出现,Iphone作为操控终端和输出设备,眼镜仅作为显示设备,或以iphone的配件形式出现。

这里我就引荐下Matt Miesnieks大神的预测(目前来说我比较赞同的):

2018 年年末

很容易能猜测到,苹果在 2018 年将推出不带 ARKit 的 AR 眼镜,具备基本输入,大部分由手机或 AirPods 控制,没有摄像头,设计非常简单。不过,苹果会强调时尚感,边框风格和价格,并霸占时尚杂志。同时,iPhone 上的 ARKit 开始支持 3D 建模,再加上一些能够改善内容渲染(如光源感知)和多用户 AR 体验的新特性。

2019 年

如果在 2019 年推出 AR 眼镜,苹果会其加入摄像头(类似 Snap 的 Spectacles,用于拍照和视频)。同时,苹果可能会为其装备最新的 W2 无线芯片。iPhone 上的 ARKit 开始支持大规模的追踪和单色 RGB 3D 建模。此外苹果地图和 Siri 也会与其深度融合。

这时,其他公司可能会抢先推出自己的全栈式消费级 AR 眼镜,而企业级 AR 已经逐渐走向成熟,一些移动 ARKit 应用会显示出强大的潜力。

2020 年

苹果眼镜发展到第三个年头后,苹果解决了续航、显示、无线连接、输入和用户界面等诸多问题。ARKit 也在逐渐增强,以应用更大的空间和不断增多的用户。这时,内容开发工具已经足够成熟,大多数开发者都能熟练使用。一些竞争对手的产品出货后,许多人会抱怨苹果贻误战机让他人抢了先机。

2021 年

融合了 ARKit 的苹果眼镜终于正式出货并大获成功(前提是AR内容经得起消费者的快节奏)。

PS:小白之鉴,如有错误还请指出~

文章点评