当前位置: 首页 > 科技观察

总结:关于AR-VR-3D技术和发展你应该知道的一切_0

时间:2023-03-19 02:13:00 科技观察

3D和“全息图”这两个字让每个人的耳朵都麻木了。从2010年松下首款3D电视系统的发布,到现在的虚拟现实和增强现实,这些词已经融入我们的流行文化,越来越成为我们关注的焦点。毕竟,现实世界是三维的,那么我们为什么要把我们的体验限制在平面屏幕上呢?从2D到3D的过渡是一个自然的过程,就像20世纪50年代黑白电影和黑白电视过渡到彩色一样。但在很多方面,从2D到3D的影响可能更大。3D的意义不仅仅是呈现一个更加可信的真实世界,而是将数字世界变成现实生活的一部分,让每一个细节都像现实世界一样真实。这个即将到来的分水岭将对我们的工作、学习、社交和娱乐方式产生深远影响。我们将能够突破现实世界的物理限制,世界将有我们想象的那么大。当然,这种转变也会影响我们使用的设备以及我们与机器交互的方式。这就是为什么谷歌、Facebook和苹果等公司都急于尽快进入3D市场:谁赢得了3D战争,谁就将获得对下一代用户交互的控制权。但现在这只是一个梦。虽然之前也有尝试破解3D市场,但我们还是要依靠局促的屏幕来进入数字世界。为什么?因为现在的3D还有很多不足,而且现在的技术水平还不足以实现一个真实可信的世界,所以消费者还在等待。接下来,YiViAn想从用户的角度为大家全面介绍3D技术,VR/AR头显、裸眼3D显示器等3D产品面临的挑战,以及这些产品将如何成为用户之间的直观界面。我们和数字世界。为什么我们需要三维图像?在深入3D技术之前,我们需要先了解一下这项技术的原理。试着眯着眼镜穿针,你会发现这比你想象的要难。进化改变了人类对3D的感知,使我们能够更快、更准确地掌握有关现实世界的信息。我们如何在生理层面上获得深度知觉?这是一个复杂的主题。人眼和大脑可以感知到很多深度线索,当这些线索出现在现实世界中时,它们会相互加强,在我们的脑海中形成清晰的环境3D图像。立体视觉(双眼视差)如果我们试图用3D幻觉来欺骗视觉系统和大脑,我们可能无法忠实地再现所有深度线索,由此产生的3D体验也会出现偏差。因此,我们需要了解一些主要的深度线索。信不信由你,你的两只眼睛看到的是不同的东西。他们看物体的角度略有不同,因此视网膜获得的图像也会有所不同。当我们看远处的物体时,左右眼之间的视差比较小。但是当物体靠近时,视差会增加。这种差异使大脑能够测量和“感觉”到物体的距离,从而触发对深度信息的感知。现在的3D技术大多是靠立体视觉来欺骗大脑,让大脑相信它感受到的是深度信息。这些技术向每只眼睛呈现不同的图像,如果你看过3D电影(比如《阿凡达》和《星球大战》),你应该通过3D眼镜体验过这种效果。更先进的“自动立体”显示技术可以将不同的图像从不同的方向投射到空间中,使眼睛不戴眼镜也能接收到不同的图像。立体视觉是最明显的深度线索,但它不是唯一的。人类实际上可以只用一只眼睛感知深度。闭上一只眼睛,将食指放在另一只眼睛的前面。现在稍微上下左右移动头部。此时你会看到背景似乎在相对于手指移动。更准确地说,您的手指似乎比背景移动得更快。这种现象称为运动视差,这就是您可以用一只眼睛感知深度的原因。如果要提供真正的3D体验,运动视差是一个重要的效果,因为观看者与屏幕的相对位移非常小。没有运动视差的立体视觉仍然会给你一种深度感,但这种3D图像会显得失真。例如,3D地图中的建筑物会开始出现扭曲,背景物体看起来像是被前景物体刻意遮挡,仔细看会很不舒服。运动视差与我们的视觉体验密切相关——事实上,我们看到的效果是一种深度提示。即使您完全静止不动(没有运动视差),然后闭上一只眼睛(没有立体视觉),您仍然可以区分远近物体。这时候,再试试上面的手指实验,把食指放在眼前,然后目不转睛地盯着这根手指。当眼镜聚焦时,您会注意到背景变得模糊。现在将注意力放在背景上,您会发现手指模糊,背景清晰。这与现代相机的工作原理相同,我们的眼睛具有改变焦点的能力。眼睛通过睫状肌的收缩改变晶状体的形状,从而达到变焦的功能。那么,眼睛的睫状肌是如何知道收缩有多难的呢?答案是我们的大脑有一个反馈回路,睫状肌在这个回路中不断收缩和放松,直到大脑获得尽可能清晰的图像。这其实是一个瞬间的动作,但是如果睫状肌调整的太频繁,我们的眼睛就会觉得很累。睫状肌的运动仅由两米距离内的物体触发,超过该距离眼镜开始放松并聚焦于无限远。Vergencevs.AccommodationConflict当你的眼睛聚焦在附近的一个点上时,它们实际上在自己的轨道上旋转。当您集中注意力时,眼外肌会自动伸展,大脑会感知到这种运动并将其解释为深度提示。如果你专注于10米以内的物体,你会感觉到眼球的收敛。所以当我们用两只眼睛看世界时,我们使用了两组不同的肌肉。一组肌肉负责将眼睛聚集在一起(聚散)到一个共同的焦点,而另一组肌肉则调节视网膜图像的清晰度。如果眼睛没有正确会聚,那么我们就会看到重影。如果视力调整不当,那么我们就会看到模糊的影像。在现实世界中,聚散度和调节是齐头并进的。事实上,触发这两种反应的神经是相连的。然而,在观看3D、虚拟现实或增强现实内容时,我们通常会将注意力集中在一个特定的位置(例如3D影院的屏幕),但眼睛接收到的信息会使眼睛会聚到另一个距离(例如从一条龙从屏幕中冲出)。这时候,我们的大脑就会难以协调这两种相互冲突的信号,这就是为什么有些观众在观看3D电影时会感到眼睛疲劳甚至恶心的原因。还记得那些用硬纸板制成的红蓝立体眼镜吗?这些“滤光眼镜”让左眼只能看到红光,右眼只能看到蓝光。典型的立体图像将具有叠加在左眼上的红色图像和叠加在右眼上的蓝色图像。当我们透过滤光眼镜看东西时,大脑的视觉皮层会将我们看到的图像融合成三维场景,画面的色彩也会得到校正。现在所有基于眼镜的3D效果,包括虚拟现实和增强头显,都使用这个工作原理,通过物理分离左眼和右眼看到的图像来创建立体视觉。现在你去看电影时,会得到一副看起来一点也不像偏光眼镜的3D眼镜。眼镜不是基于颜色过滤图像,而是基于光的偏振过滤图像。我们可以将光子视为水平或垂直振动的振动实体。在电影屏幕上,一台特殊的投影仪会产生两个叠加的图像。其中一幅图像只会向观察者发射水平振动的光子,而另一幅图像将发射垂直振动的光子。这种眼镜的偏光镜片可以保证两幅图像分别到达相应的眼睛。如果你有一副偏光眼镜(不要从电影院偷),你可以用它们来观察真实世界的偏光。将眼镜保持在距离视线2英尺的范围内,并透过汽车挡风玻璃或水面观察。当您将眼镜旋转90度时,您应该会看到穿过镜片的强光。这就是偏振器的工作原理。偏光镜可让所有色谱进入眼睛,从而提高3D图像的质量。从3D图像质量的角度来看,眼镜只能提供立体视觉的深度提示。所以虽然你可以看到图像的深度,但如果你离开座位在剧院里走来走去,你将看不到周围的物体,背景会向运动视差的相反方向移动,这意味着它会跟着你。一个更严重的问题是眼镜缺乏调节支持,这会导致聚光度和调节之间的冲突。如果您从屏幕上盯着一条龙靠近您,您很快就会感到极度的视觉不适。这就是为什么电影中的龙飞得非常快——只是为了达到令人恐惧的效果,并避免眼睛不适。如果你家里有一台3D电视,那么配的眼镜可能不是偏光的,而是采用“主动快门”技术。电视为左右眼交替显示图像,眼镜与电视的频率同步遮挡相应的眼睛。如果开关频率足够快,大脑可以将两种信号混合成连贯的3D图像。为什么不戴偏光眼镜?虽然有些电视会采用这种技术,但不同方向的偏振图像肯定来自不同的像素,因此观看者看到的图像分辨率会减半。(但在电影院中,两幅图像分别投射在屏幕上,它们可以相互重叠,因此不会损失分辨率。)主动快门式3D眼镜一般只支持一种深度提示,即立体图像。一些更先进的系统将使用跟踪技术来调整内容,并通过跟踪观众的头部来支持运动视差,但仅限于一个观众。虚拟现实是一种全新的3D渲染类型。这项技术最近受到了很多关注。许多人已经体验过虚拟现实耳机,未来几年将有更多人能够体验到这项技术。那么,虚拟现实是如何运作的呢?VR耳机不是从外部屏幕过滤内容,而是生成自己的双目图像并将其直接呈现给相应的眼睛。VR耳机通常包含两个微型显示器(一个用于左眼,一个用于右眼),其逼真的化身通过光学放大和调整并显示在用户眼前的特定位置。如果显示器的分辨率足够高,图像的放大倍数就会更高,这样用户看到的视野就会更广,沉浸式体验也会更好。OculusRift等虚拟现实系统现在可以跟踪用户的位置,为立体视觉添加运动视差。当前版本的虚拟现实系统不支持视觉调节,容易造成视觉辐辏和调节的冲突。为了保证用户体验,必须解决这个技术问题。这些系统目前还不能完全考虑眼镜的移动(有限范围和失真),但未来可能会通过眼动追踪技术解决这个问题。同样,增强现实耳机正变得越来越普遍。增强现实技术可以将数字世界和现实世界融合在一起。为了确保真实感,增强现实系统不仅需要跟踪用户在现实世界中的头部运动,还需要考虑他们所在的真实3D环境。如果Hololens和MagicLeap最近的报道属实,那么增强现实领域现在已经有了巨大的飞跃。正如我们的两只眼睛看世界的方式不同一样,现实世界中的光线也从不同的方向进入瞳孔。为了触发调节,近眼显示器必须能够独立地模拟从各个方向发出的光。这种被称为光场的光信号是未来虚拟现实和增强现实产品的关键。在实施这项技术之前,我们只能忍受头痛。这些都是耳机需要克服的挑战,同时也面临着融入社会和文化的问题(比如谷歌眼镜的遭遇)。如果我们想同时从多个角度展示世界,就需要用到裸眼3D显示系统。如何在不佩戴任何设备的情况下体验3D影像?看到这里,我想你应该明白了,如果要提供立体视觉,3D屏幕就必须在不同的空间方向上投射不同视角的图像内容。这样,观看者的左眼和右眼自然会看到不同的图像,从而引发深度感知,因此得名“自动立体显示”。因为3D图像是投影在屏幕上,只要3D效果不过分夸张,立体显示器本身就可以支持视觉会聚和视觉调整。但这并不意味着该系统不会引起眼睛不适。事实上,这个系统还有一个问题就是不同视觉区域之间的切换。该系统的图像会出现频繁跳跃、亮度变化、暗带、立体视觉中断等问题。最糟糕的是,左右眼看到的内容是颠倒的,导致完全相反的3D体验。那么我们如何解决这些问题呢?3M于2009年开始这项技术的商业化生产,将棱镜膜插入普通液晶屏背光源的膜堆中,可以分别从左右方向进行光照。当光源来自左侧时,LCD的图像将投射在右侧区域。当光源来自右侧时,图像将投射在左侧区域。快速切换光源方向,改变左右眼以相同的频率看LCD上的内容,可以产生立体视觉,但前提是屏幕需要正对着屏幕观众。如果从其他角度看,立体感会消失,图像会变得扁平。由于观看范围非常有限,这种显示技术通常被称为“2.5D”。在2D屏幕顶部添加一个带有许多小开口的覆盖层。当我们通过这些小孔看屏幕时,我们无法看到下面的所有像素。我们能够看到的像素实际上取决于视角,观察者的左眼和右眼可能看到不同的像素组。“视差屏障”的概念在一个多世纪前就被发现,夏普在十年前首次将其投入商业使用。经过改进,该技术现在具有可切换的屏障,这实际上是另一个可以创建屏障效果或变得透明的活动屏幕层,将屏幕返回到2D模式以显示全分辨率。早在2011年,HTCEVO3D和LGOptimus3D就成为全球首款支持3D功能的智能手机而登上新闻头条。但它们实际上只是2.5D技术的另一个例子,只能在非常窄的视角范围内提供3D效果。从技术上讲,视差屏障可以不断扩大,形成更广的视角。但问题是视角越宽,你需要阻挡的光线就越多,这会导致功耗过大,尤其是对于移动设备。二维屏幕上覆盖着一层微凸透镜。我们都知道,凸透镜可以将远处光源发出的平行光聚焦。孩子们用放大镜照亮东西。也用到了这个原理。这些透镜收集来自屏幕像素的光并将其转化为定向光束。我们称这种现象为准直。光束的方向随着透镜下像素的位置而变化。这样,不同的像素将跟随投射到不同方向的光束。柱状透镜技术最终可以达到与视差屏障相同的效果(都是利用在不同空间位置看到不同像素组的原理),但柱状透镜不会阻挡任何光线。那么为什么我们在市场上还没有看到光栅3D屏幕呢?不是因为没有人试过,东芝在2011年就在日本发布了第一代系统。但是这种屏幕仔细看会有一些无法接受的视觉伪影,这主要是镜头造成的。首先,屏幕像素通常由较小的发光区域和较大的不发光的“黑矩阵”组成。经过镜头处理后,单个像素的发光区域和黑矩阵会在空间上偏向不同的方向。这将导致3D图像中出现非常明显的黑色区域。解决这个问题的唯一方法就是对镜头进行“散焦”,但这样做会造成不同视角之间的干扰,使图像变得模糊。其次,仅用一个镜头很难在广视角下实现适当的准直。这就是相机镜头和显微镜使用复合镜头而不是单镜头的原因。因此,双凸透镜系统只能在较窄的视角(约20度)下观察真运动视差。超过这个范围,3D图像就会不断重复,就好像视角不对一样,图像会越来越模糊。视野窄、视觉转换差是光栅屏幕的最大弊端。如果观众自动调整他们的头部并且不四处走动,双凸透镜技术对于今天的电视系统来说是可以接受的。但在手机、汽车等使用场景中,头部肯定会移动,因此柱状透镜系统很难达到理想的效果。那么,如何设计一个视野开阔、过渡平滑的裸眼3D视觉系统呢?如果我知道你的眼睛和屏幕之间的相对位置,我可以计算出相应的视角并尝试将图像调整到眼睛。向。只要我能快速检测到你的眼睛在哪里,并有同样快速的图像调整机制,那么我就可以保证任何视角的立体视觉,以及流畅的运动视差渲染。这就是眼动追踪自动立体屏幕的工作原理。这种方式的好处是屏幕在任何时刻只需要渲染两个视角的图像,这样就可以保留大部分的屏幕像素。从实用的角度来看,眼动追踪系统可以与当前的视差屏障技术结合使用,以避免双凸透镜系统产生的光学伪影。但眼球追踪并不是一切。一方面,它一次只能支持一个观众,而眼球追踪需要设备上有一个额外的摄像头,以及在后台不断运行的复杂软件来预测眼睛位置。尺寸和功耗对于电视系统来说不是什么大问题,但这会对移动设备产生巨大影响。此外,即使是最好的眼动追踪系统也会出现滞后或错误,常见原因包括光线变化、眼睛被头发或眼镜遮住、摄像头检测到另一双眼睛,或者观众头部移动得太快。当这个系统出错时,观众会留下非常不舒服的视觉效果。裸眼3D技术的最新发展是衍射“多视图”背光LCD屏幕。衍射是光的一种特性,当光遇到亚微米物体时会发生弯曲,这意味着我们已经准备好进入纳米技术领域。你没看错,纳米技术。普通液晶屏背光源发出随机分布的光,即每个液晶像素发光到一个广阔的空间。但是,衍射背光源可以在一个统一的方向(光场)发光,LCD像素可以设置为一个方向发光。这样,不同的像素可以向不同的方向发送信号。与双凸透镜一样,衍射背光方式也可以充分利用入射光。但与柱状透镜不同,衍射背光可以处理小光发射角和大光发射角,并且可以完全控制每个视角的角展度。如果设计得当,视角之间将不会有暗区,生成的3D图像将像视差屏障一样清晰。衍射法的另一个特点是调光功能不影响直接通过屏幕的光线。这样一来,屏幕的透明度就可以得到完整的保留,所以这种屏幕可以在下方加上一个普通的背光,回到全像素2D模式。这为透视裸眼3D显示技术的发展铺平了道路。衍射方法的主要问题是颜色一致性。衍射结构通常会在不同方向发出不同颜色的光,这种色散需要在系统层面加以抵消。然而,3D技术的发展并不会止步于看到3D图像,它将开启一种全新的用户交互范式。3D体验很快就会达到适合消费的质量,我们也不用担心自己的3D体验会被打断。在虚拟现实和增强显示系统中,这意味着扩大视野、实现调节并提高系统对快速头部运动的响应能力。在裸眼3D显示技术中,这意味着为用户提供足够的自由移动空间并避免各种视觉伪影,例如3D损失、暗区、视觉跳跃或运动视差延迟。一旦幻觉变得可信,我们就会忘记幻觉背后的技术,接受虚拟现实世界作为真实世界,至少在我们撞到真实存在的墙壁之前是这样。如果要实现这样的幻想,我们需要考虑到现实世界有物理反应。当我们将电子数据转化为我们在现实世界中可以感知的光信号时,我们需要将身体的真实反应数据传回数字世界进行交互。在虚拟现实和增强现实耳机中,这是通过用户佩戴或放置在周围环境中的传感器和摄像头来实现的。我们可以预见未来带有传感器的智能服装,但它们可能体积庞大。在3D屏幕上,这个任务可以直接由屏幕完成。事实上,Synaptics开发的HoverTouch技术已经可以实现非触摸手指感应。很快,我们将能够通过移动手指在半空中与全息图进行交互。一旦电子世界了解了用户的响应机制。然后两者可以更自然地融合。换句话说,数字信号可以在我们撞到墙上之前打开一扇门。但是,如果我们能在虚拟世界中看到并触摸到墙壁不是更好吗?但是我们如何将触觉带入这个世界呢?这个问题涉及触觉反馈领域。模式,那么你应该体验过这种反馈。例如,手套和其他带有振动装置的衣服,或者模拟皮肤的微小电信号,如果调整得当,可以给身体的不同部位带来与视觉相匹配的触觉。当然,并不是每个人都适合穿这种缠绕着金属丝的衣服或感受电流。对于基于屏幕的设备,超声波触觉可以让您直接在空中触摸屏幕,而无需任何智能服装。该技术从屏幕周围发射超声波,这些超声波的强度可以根据用户手指的动作进行调整。信不信由你,这些放大的声波强度足以让您的皮肤感觉到。像Ultrahaptics这样的公司已经在准备将该技术推向市场。虽然虚拟现实和增强显示耳机在今天变得越来越普遍,但它们在移动和社交方面仍然存在许多限制,难以实现完全交互的3D体验。使用手指触觉技术的3D屏幕将克服这一障碍,让我们在未来以更直接的方式与数字世界互动。在最近的一篇博文中,我将这个平台称为全息现实(??HolographicReality),并描述了全息现实显示如何应用于我们日常生活的方方面面。未来所有的窗户、桌子、墙壁、门都将具有全息现实功能,我们在办公室、家庭、汽车甚至公共场所使用的通讯设备都将配备全息现实组件。我们将能够随时随地访问虚拟世界,无需佩戴耳机或连接线。在过去的5年里,3D技术、显示技术和头戴式显示器等领域都取得了巨大的发展。科技发展如此迅猛,不难想象,在未来5年内,我们将在全景现实世界中交流、学习、工作、购物或娱乐,这将通过先进的3D技术实现,包括头显、安装显示器和3D屏幕。生态系统来实现。