乔布斯说,“手机摄像头主打高分辨率,这是手机厂商利用消费者在照片成像原理上知识空白的一种表现。”小米发布了一款1亿像素的概念手机,没错,就是“概念型”。当然,这不是重点,重点是小米有1亿像素,而今年新iPhone的摄像头最大像素为1200万,反差不小,很多人说,“敢用iPhone拍脸的,都是对自己颜值非常自信的人。”竞争力,毕竟已经停滞在12像素大关了好几年了,但是iPhone相机真的有那么差吗?像素真的是决定相机性能的唯一因素吗?在搞清楚这些问题之前,我们先来说说像素对于拍照的重要性。关于像素的那些事什么是像素?百科全书中对“像素”的描述是这样的:“一个像素是由一幅图像的小方块组成的。这些小方块有明确的位置和分配的颜色值。,小方块的颜色和位置决定了图像的外观。”这么说可能有点晦涩,我们来看下图:以一格为单位,很明显左边图片的像素比右边少很多,这反映在最终图像中。右图清晰度更高,连花瓣上的露珠都清晰可见。总之,理想情况下,像素越高成像越精细,这也是各大手机厂商争先恐后追求高像素的主要原因。但是增加像素并不是一件简单的事情。第一个障碍是使图像传感器具有足够的图像分析能力。这方面的关键技术一直被三星和索尼垄断,或者说是索尼家族。索尼与三星之战,从CCD到CMOS成为相机设备的基础硬件,如今最常见的图像传感器就是CMOS,而我们通常所说的XXXX万像素相机中的“XXXX万”指的就是CMOS。感光元件的数量。但其实一开始,拍照还只存在于相机领域的时候,CCD的应用更为广泛,索尼在这方面是绝对的领先者。早在1969年贝尔实验室发明CCD时,索尼就迅速加入了这场游戏。无论是独创的正空穴堆积层推出HAD传感器并应用于变速电子快门产品,还是创新性地在每个光电二极管前加装微型透镜,亦或是推出SUPERHADCCD技术,为CCD基础打下基础技术基本上,随着超大规模集成电路工艺技术的应用,索尼相关产品的像素集成度和成本控制在行业中名列前茅,在市场上也是最好的。直到2007年前后,手机对图像传感器的需求大幅增加,情况才有所改变。长期以来,三星一直在努力在摄影领域大展拳脚,但一直未能量产CCD。随着智能手机的普及,市场对摄影的需求越来越大,能够输出数字信号、工艺简单、功耗低、成本低的CMOS成为首选。与CCD相比,CMOS虽然在感光度和图像分析处理方面稍弱一些,但手机毕竟不是专业相机,要求也没有那么高。三星也看中了这一点,迅速在技术和产能上弥补了之前的问题。CMOS的大规模生产,再加上自家智能手机在市场上的不俗表现,两者的加持让其有了后来者的姿态。当然,索尼并不是事后诸葛亮。早在2007年,它就发布了首款Exmor传感器。不仅内置ADC(模数转换器),而且在小尺寸传感器下实现,成功拿下CMOS市场。“访问证书”。2008年公司推出采用BSI(背照式)技术的ExmorR传感器,成功进军手机市场,并获得iPhone4s订单。三星虽然底子薄,入市晚,但凭借自身在半导体行业的优势,在2017年CMOS市场大爆发之前,直接对索尼Exmor推出了ISOCELL图像传感器;2018年还推出了16像素的ISOCELLSlim3P9,不仅即插即用,还支持四像素合一;今年,它推出了64像素传感器GW1,并推出了108像素图像传感器。最新的43.7兆像素传感器ISOCELLSlimGH1的单位像素仅为0.7μm。这样一来,三星似乎在技术上领先于索尼。但是产品好不好,只能用过才知道。像素飙升的背后,是不是手机厂商急功近利?可见,在拍照性能越来越受到重视的当下,高像素已经成为消费者选购手机的重要选择标准。几乎所有的手机厂商都在这方面做到了最好。但其实早在2010年,乔布斯就曾表示,“很多手机厂商利用消费者对照片成像原理知识的空白,在手机拍照上主打高像素,但手机拍照性能的质量,像素只是影响因素之一。”对比一下:2011年小米发布首款手机时,后置800万像素摄像头,而今年年初发布的小米9,后置主摄像头升级为4800万像素;同样在2011年,苹果公司发布的iPhone4s也配备了8兆像素的后置摄像头,但新发布的iPhone11却只有12兆像素的后置摄像头。而且,从2015年iPhone6s采用12兆像素摄像头开始,iPhone已经5年没有在这方面进行升级了。同样是8年,小米的像素数量增加了6倍,而iPhone只增加了一倍。苹果不如小米?事实上,并非完全如此。摄影界有句话叫“底大到能杀人”,通俗的解释是“在相同像素条件下,传感器尺寸越大,每像素进光量越多,照片效果越好。”体现在手机摄像头上,CMOS面积越大,拍照性能越好。另一方面,iPhone摄像头的像素已经5年没有变化,但拍照性能却越来越好,因为CMOS面积已经升级了很多次。反映到相机的外在特性上,最直观的就是光圈越来越大。例如,iPhone4/5采用索尼IMX145,CMOS面积为1/3.2,单位像素为1.4μm;iPhone6s采用索尼全新定制的IMX315,CMOS面积为1/3,单像素面积提升至1.22μm,光圈为f/2.2;iPhoneX的CMOS至少是1/2.6,广角镜头光圈有?/1.8。也就是说,苹果一直致力于提高单个像素的质量,比如每个像素的进光量和色深的协调性。至于小米,从小米8到小米9,摄像头像素直接从1200万提升到4800万。不过有知乎网友表示,小米9的实际拍照效果是拖尾严重,锐度不如小米8,在最新的DxOMark排名中,仅排名全球第七。今天发布的MIXAlpha的108兆CMOS尺寸高达1/1.33,但大像素仅为1.6μm。也就是说,单个像素的画质其实并没有达到一亿像素应该有的水平。事实上,即使是全画幅相机,CMOS尺寸也至少是手机的10倍,更何况富士、哈苏等也推出了只有5000万像素的产品,手机相机已经亿万。像素确实有点不可思议。当然,和像素一样,CMOS面积只是影响照片效果的重要因素之一。还有许多其他方法可以提高照片性能。很大的努力。除了像素,我们还能做什么?今年3月,华为高调发布了一款号称可以“随手拍,九日拍月”的P30手机。+800万长焦摄像头,最大亮点是首创全新RYYB传感器设计,将三基色中的绿色像素换成黄色像素,进光量提升40%,保证暗光环境下的成像质量。刚刚发布的Mate30Pro也沿用了这一设计。RYYB有什么好?先说拜耳阵列。拜耳阵列是现代彩色数码摄影的重要传感器设计,是实现CCD或CMOS传感器捕捉彩色图像的主要技术之一。简单来说就是一个由8个绿色、4个蓝色和4个红色像素组成的4×4阵列,也就是我们通常所说的“RGGB”。但随着市场对相机性能要求的提高,越来越多的人发现在超高清或高清拍摄下,RGGB灰度分辨率的不足被放大。主要原因是RGB的三基色是加色。方法,光的吸收相对有限。例如,在拍摄高清纺织品时,由于纤维之间的色差较小,容易出现颜色交叉现象。华为推出的RYYB滤光片,对红绿蓝三基色进行改造,以黄代绿,即通过牺牲绿光进入量,增加黄光进入量,变相增加红光进入(黄光)。它是红光和绿光的混合),以提高相机在弱光环境下的性能。反映到实际效果上,RYYB的进光量比RGGB高出40%,这也是P30在夜间能清晰拍出月亮的原因。然而,所有的创新设计都需要强大的分析技术支持,这就涉及到处理器性能。目前高端手机SoC主要分为三类:高通骁龙800系列,迭代到855Plus,相比855提升有限,大核主频高达2.96GHz,算是做5G过渡芯片;苹果A系列,迭代到A13,采用第二代7nm制程工艺,单芯片拥有85亿个晶体管,每秒运算次数达到1万亿次。CPU采用“2高性能核心+4高性能核心”组合,GPU为4核心,功耗降低40%,NPU为8核心;华为麒麟900系列,最新的是麒麟990,集成了103亿个晶体管,采用台积电7nm+EUV工艺,神奇地将架构改为“双大核+双中核+四小核”。就目前的情况来看,后两者的关注度比较高,在手机上都有体现。以难以分析的视频拍摄为例,iPhone11Pro可以4K/60fps和多摄像头同时拍摄;而Mate30可以拍摄实现4KHDR和4K延时拍摄,视频ISO最高可达51200帧,支持7680fps超高速视频拍摄。在拍照方面,防抖、AI虚化、景深、暗夜、微距、长焦、广角等都可以实现。此外,华为还在ISP上进行了硬件升级。例如,新发布的麒麟990采用ISP5.0,可以实现实时多实例分割。端BM3D单反级图像降噪技术和双域联合视频降噪技术。当然,除了技术手段,直接叠加摄像头也是主要方式之一,不过现在手机后置已经提升到5个摄像头,就连iPhone也坚持只做单摄像头后背随后,又推出了后置三摄,但如果以后手机变成这个样子,恐怕“隐秘恐惧症患者”真的很难接受。
