最新专利显示,iPhone 可能会使用热成像或红外成像来补充传统视觉摄像头,让我们在黑暗或黑暗中更容易使用苹果繁忙的环境 AR。
苹果在新专利中指出,涉及图像分析的计算机视觉方法通常用于导航、物体识别、3D 重建、相机姿态估计和增强现实应用,但相机用于至少有一个真实物体的动态环境中。
移动。
当使用姿态估计、物体识别、物体跟踪、同步定位与跟踪(SLAM)或运动结构(SfM)算法时,算法的准确性往往会大大降低,尽管使用了强大的优化技术,但这种情况经常发生在实际算法中。
追踪失败。
由此产生的明显问题是,AR 在尝试在真实环境中定位虚拟对象时会出错。
事实上,任何 AR 系统都会通过耳机或耳机上的摄像头获得有关其自身的所有可能的定位详细信息,但跟踪其他所有内容将很困难。
之所以困难,是因为包括数据处理在内的一系列问题。
在当前的技术水平中,存在许多算法用于检测和分割场景中的动态(即移动)对象,但是,这种方法通常计算量很大并且依赖于运动分割和/或光流技术,Apple 的解决方案是使用依赖热成像或红外的相机增强 AR 视觉相机,可以利用场景中真实物体的热特性来提高计算机视觉算法的准确性。
此外,热成像的使用意味着Apple AR将不再那么依赖在全光下使用。