ARKit 2.0 发布后不久,不少开发者发现新版 ARKit 支持使用 iPhone X 前置结构光摄像头进行眼动追踪。
类似的功能我们过去也见过(不会写程序怎么能成为一名优秀的艺术家?跳出iPhone动画呈现角度的3D立体视觉效果。
但严格来说,这并不是眼动追踪,只是对眼球位置的识别,也就是说,如果头部和手机的相对位置不发生变化,那么眼球移动时,画面就不会发生变化。
ARKit 2 非常神奇,转动你的眼睛,屏幕上的十字光标会随着注视点的移动而移动,响应速度和准确性都非常好(你会忍不住想眨眼)什么。
会不会误触?)完成点击选择,无需用手操作手机。
在很多场景下可以说是非常方便的。
得益于红外解决方案,即使在黑暗中也可以进行眼球追踪。
手机眼动追踪 利用眼动追踪来控制手机,是很多开发者长期以来的设想。
去年年初发布的中兴鹰眼中添加的眼球追踪功能,利用前置摄像头检测用户的虹膜运动,并通过上下或左右滑动来控制屏幕。
滑动功能让人们在双手空闲时可以更轻松地简单操作手机,但对于某些用户群体(身体残疾)来说,他们渴望更强大的眼动追踪解决方案。
一般来说,追踪眼球的方案有两种,即普通摄像头和红外摄像头。
普通相机易于小型化,成本低,但精度较低。
红外方案体积大、成本高、精度高。
但随着技术的发展,优缺点也不能一刀切。
对于普通摄像头解决方案,麻省理工学院在 2016 年推出的“Eye Tracking for every”使用卷积神经网络(CNN)来预测用户在手机或平板电脑上的注视位置。
使用普通相机时,精度变为1.34cm至2.12cm。
虽然精度有所提高,但从目前的市场情况可以看出,该技术尚未成熟。
红外摄像头一直是主流的眼动追踪识别解决方案。
例如,Tobii眼动仪所使用的技术就是识别用户眼球的角膜和瞳孔产生的反射图像。
它使用两个图像传感器分别采集眼睛和反射图像,并通过图像处理进行处理。
该算法和三维眼球模型精确计算出眼球和注视点在空间中的具体位置。
解决小型化问题的True-Depth相机模组是否也采用类似的技术原理? 6月20日,开发者Andrew Zimmer在Twitter上发布了一个演示,展示了ARKit 2对眼睛注视点位置的实时跟踪效果。
当安德鲁的眼球旋转时,注视点的移动在屏幕上绘制出一条连贯的曲线。
图中,颜色越暖(橙色、红色),固视时间越长。
凝视点位置检测准确,识别轨迹平滑连贯,在未来人机交互中具有巨大潜力。
相当一部分患者因生活不便而与信息时代脱节。
对于他们中的许多人来说,与设备交互的唯一渠道是眼睛。
在智能手机的交互模式中加入眼动追踪也能让身体健全的人受益,让我们可以在手上没有时间的时候操作手机,比如做饭和看菜谱、开车和看导航。
。
但与此同时,技术也带来了很大的隐私问题。
相信大家都有同感。
在网上浏览某种类型的产品后,PC和移动应用程序上的各种广告和弹窗会根据您的浏览内容推荐一堆类似的产品。
当未来的应用因为你感兴趣而知道你长期观看的内容时,内容推送就会更加精准,人们观看的内容信息就会被出售,就没有隐私可言了。