当前位置: 首页 > 科技赋能

这家公司经过四年的努力,为AI机器打造了一辆超级视觉

时间:2024-05-22 19:43:32 科技赋能

汽车(公众号:chedognxi) 文本 |缘起 去年以来,人工智能从技术走向应用,从云端走向终端。

接下来就是各个公司对各种应用场景的探索。

为了满足人工智能终端设备的计算需求,人工智能芯片不断涌现。

目前,人工智能的主流应用仍然围绕图像,尤其是自动驾驶。

通过摄像头清楚地了解和看到周围环境的能力极其重要。

但图像质量恰恰是痛点之一——现有摄像头对光环境的适应能力较差,远不如人眼。

低质量的图像数据输出严重限制了AI算法的能力。

但四年前,一家公司成立,试图解决这个问题。

近日,智喜喜走访眼王科技,与GTIC重磅嘉宾眼王科技创始人兼CEO朱继智进行了深入对话。

他了解了公司四年来的技术实践以及其成像引擎对人工智能应用的影响。

价值。

1、技术研发:花了四年时间打磨目标。

毕业于北京大学电子系的朱继志,在创立眼景科技之前,先在中兴通讯视频通信部工作。

在这十年的工作经历中,朱继志负责视频图像的技术开发和技术的产品化。

技术和产品的双重经历使他成为图像处理行业的资深人士。

后来,朱继志投身芯片行业,并成为国内最大芯片分销商的副总裁。

8年时间,他在手机、家电、汽车等芯片需求量较大的行业工作过,也了解芯片的产品开发逻辑和下游方面。

行业的不同需求。

这两种经验后来结合起来,形成了现在的EyeQing技术。

2016年,仍然密切关注图像处理行业的朱继志看到了一个机会——人们日常生活中的相机太弱了:逆光、暗光、强光、多种光源,任何复杂的光线情况都会使相机输出的图片不忍直视。

要么暗的部分是黑色的,要么亮的部分是白色的。

再加上各种颜色失真和过多的噪点,它们与人眼所能看到的相去甚远。

数码摄影诞生以来的几十年里,虽然成像的关键部件——CMOS图像传感器(CCD也曾流行过,但现已退出主流市场)不断迭代,但直到今天,这些问题仍未得到有效解决。

当时,朱继志主导成立了EyeQing科技,英文名为“eyemore”,意图使其产品的成像能力媲美甚至超越人眼。

朱继志认为,现有成像系统对光的适应性较差,与产业链上游日本厂商主导的全球成像路径密切相关。

朱继之针对这个问题的解决方案是——区域分层成像,即将成像对象分解为大量的小网格,利用自主研发的成像算法分别计算每个网格中的数字信号,使得在每个小网格中grid 图像均输出最佳成像效果。

这个原理听起来很容易理解。

公司成立第一年,朱继志就带领团队打造了样机。

经验证,该技术可行。

当时,延庆获得柔宇科技投资人杨向阳的天使投资。

但事情远没有那么简单。

成像算法是牵一发而动全身的事情。

也许只是为了调整暗部的亮度,整个画面的亮度同时发生变化。

为了使成像算法能够应对各种光照条件,需要针对每个场景调整特定的参数。

例如,当自动驾驶汽车进入隧道时,光源会瞬间从自然光变为人造光,光线强度也会发生从强到弱再到中等的快速变化。

这时,相机稳定输出明亮清晰图像的能力将受到极大的挑战。

应对这种情况,我们只能去隧道进行现场测试,针对这种场景反复优化算法。

有许多不同的场景。

这件事花了延庆队三年的时间。

同时,为了满足更复杂的成像架构带来的巨大计算需求,Eyeking还内置了独立的ISP(图像信号处理器)来承载Eyeking自研的算法。

2、产品实现:芯片搭载成像引擎,为AI机器打造视觉器官。

到2020年,Eye Engine的成像解决方案已经初步成熟,是时候进入产品化阶段了。

在这几年的技术发展中,延庆不断推出针对消费市场的Demo产品进行探索。

但朱继之很快发现,普通消费者对成像效果的偏好似乎是一种玄学——人们根据不同的需求,有自己一套判断图像质量的主观标准。

也许有些人希望照片拍得更白,而有些人则希望图像中的颜色更亮。

Eye Engine 能够准确输出图像中各种物体的颜色、纹理和材质细节的能力在这种情况下并不构成优势。

然而,近年来机器视觉市场的暴涨,为Eye Engine提供了更大的机遇。

无论是手机人脸识别、安防还是自动驾驶,运行人工智能算法的机器都需要客观、准确、清晰的图像数据。

这就是Eye Engine的优势。

找准To B市场,EyeQing的产品应运而生——eyemore X42成像芯片。

这款ISP成像芯片凝聚了Eyeking四年的创业成果,封装了20多种智能成像算法,适用于10多种不同场景。

同时,由于采用独立ISP,其单像素计算能力比SoC上封装的集成ISP高20倍。

这款芯片有能力将机器视觉推进一步,朱继之也喜欢称其为成像引擎。

这些参数的背后,是其面对复杂光线时的高质量成像能力。

在智西西的实际弱光成像演示中,搭载Eye Engine成像引擎解决方案的摄像机在室内只有电脑显示器作为光源的情况下,呈现出明亮、清晰、高度色彩还原的图像。

在这个场景中,手机为了捕捉明亮的电脑显示而完全放弃了黑暗成像。

在这样的光照下,人眼早已无法辨别物体的颜色。

上图为eyemore在弱光环境下的成像效果。

在不依赖红外光等主动照明的情况下,Eyemore确实实现了弱光环境下对人眼的超越。

在朱继之看来,这一点非常关键。

他认同马斯克对于自动驾驶的看法——“激光雷达是自动驾驶的拐杖”。

朱继智认为,激光雷达在自动驾驶中如此受欢迎的原因是摄像头的被动光学成像没有发挥其潜力。

在极端情况下,需要像激光雷达这样的主动光学成像系统。

但一旦相机能够在更复杂的情况下比人类看得更清楚、看到更多颜色,那么人工智能将拥有更好质量的图像数据,从而可以进一步发展其识别物体和感知环境的能力。

毕竟,人类已经非常擅长用眼睛驾驶了。

比人眼更好的成像系统不仅会让自动驾驶变得更容易,而且还可以用于其他场景。

然而,朱继之认为这还不够。

因为人眼的超强视觉能力不仅在于其优秀的光学系统,更重要的是它无时无刻不在通过神经与大脑进行交互,通过聚焦屏蔽掉不重要的信息,并聚焦在真正关键的视觉区域和对象。

为了实现真正的智能,成像步骤前端的眼睛引擎需要与后端AI交互,以了解AI真正需要什么。

因此,延庆团队为影像引擎和后端AI算法设计了交互架构,以了解AI对图像的需求。

必要时,这种设计可以像人眼的焦点一样集中计算资源,对AI关注的某一帧图像或图像中的某一区域进行更高质量的成像。

朱继之表示,这种与AI系统交互的能力将使成像系统真正成为AI的有机器官。

3、商业定位:技术解决方案提供商。

发现了四大应用场景。

未来Eyemore X42成像芯片提出量产后,Eyemore的工作重心开始转变为将该技术应用到各种终端产品上。

这时,朱继之在芯片行业的经验开始进一步发挥作用。

目前,眼晶科技已建立自动驾驶(汽车)、手机、安防、工业检测、机器人、无人零售六大应用场景。

其中大部分是朱继之之前接触过的下游。

在商业模式上,朱继之想得很清楚,这些行业的进入门槛都很高,有的已经被巨头占据。

因此,延庆选择的方式是赋能——定位上游技术解决方案提供商,打造下游终端产品。

该公司出口自己的成像能力。

为了让新生成像引擎更好地得到合作伙伴的验证和接受,在量产之前提出了eyemore意见。

当eyemore X42投入量产时,EyeMore将提供不同能力的API接口,以降低下游开发难度。

目前,Eyeking已与电商行业公司合作打造智能3D扫描仪。

在这款单目深度相机上,Eye Engine 提供了在单次曝光中同时呈现明暗细节的能力,并准确输出产品颜色和纹理。

今年,EyeMore与20多家来自不同行业的公司合作,将eyemore X42成像芯片集成到各种终端产品中。

在自动驾驶场景中,Eyeking的合作伙伴包括众多自动驾驶领域领先的明星公司。

今年5月,Eyeking将针对该市场推出超宽动态辅助驾驶视觉成像解决方案。

视觉动态范围超过dB,满足车规要求。

针对不同行业的具体需求(例如汽车行业的芯片需要通过车规),眼晶还将采取IP授权的形式,让相关行业的企业有针对性地进行芯片的研发和生产。

结论:从底层抢占人工智能时代的视觉入口。

近两年人工智能发展高潮期间,专注后端的人工智能算法公司纷纷涌现,并率先获得广泛关注。

其中AI视觉算法公司占大多数。

随着人工智能概念逐渐清晰、产业进一步发展,人工智能正越来越快地走进现实,走进普通人的日常生活,从云端走向终端。

这时,承载软件算法的计算硬件的重要性就凸显出来。

回想起来,由于硬件门槛较高,有勇气踏入这个方向并忍受几年孤独来开发技术的公司并不多。

从底层做起,历时四年磨练技术,延庆已在产业链中占据了一席之地,正在分食越来越大的AI视觉蛋糕。