本来嘛,我也没拆过智能手机,不过上次为了证明魅族16s是否有点胶,确实过了把瘾,将一台手机拆了个底朝天。四三认为在现在的智能手机中,摄像头应该是物理结构最为复杂的元件之一,它通常是由PCB主板、CMOS图像传感器、固定器(Holder)和镜头(Lens Ass’Y)组成。但是实际上,主要负责拍照、录像的还是由CMOS图像传感器负责。写这篇文章主要还是想科普下最基础的像素点排列方式对CMOS图像传感器的影响吧。
首先大家都知道摄影是用“光”的艺术,而光是要传到传感器上话,则需要透过镜头的折射,镜头一般由透镜(5片起步,数量越多越好,玻璃>树脂),再通过滤光装置(以RGB原色分色法和CMYK补色分色法为主,后文将详细解释)打到CMOS图像传感器,拍摄出你想要拍摄的画面。至于其他不同的光圈和焦距则可以方便你在不同的场景中拍摄出景深和焦段好看的照片,许多厂商主打的OIS光学防抖则需要集成额外的马达和MEMS陀螺仪进行辅助。
对于智能手机而言,许多厂商的终极目标就是拥有媲美单反相机的成像素质。然而,受限于CMOS图像传感器的物理瓶颈,手机镜头普遍开孔只有8mm,这怎么与单反专用的CMOS图像传感器对决呢?所以为了缩小与单反相机之间的差距,只有不断提升CMOS成像画质这么一条出路。玩摄影的都知道一句话“底大一级压死人”。所以既然突破不了物理限制,那么就走增加CMOS图像传感器的尺寸这么一条路能不能行得通呢?
那么问题来了,在现在最求纤薄的智能手机,与加大CMOS图像传感器尺寸的发展方向是违背的,比如历史上首台装进了1/1.2英寸的诺基亚808PureView,为了塞入这个1/1.2英寸的CMOS图像传感器,诺基亚808PureView相机部分厚度17.95mm。所以作为今年主打的IMX586/IMX600还是IMX650,这些顶级超大像素图像传感器的尺寸也只有1/2.0英寸和1/1.7英寸,虽然比平常手机常用的那些1/2.X英寸的CMOS图像传感器来说算是“大底”,但是和专业的单反CMOS图像传感器来比,那就是弟弟。
那么来说说第二条路,提升CMOS图像传感器的进光量可不可行呢?因为增加传感器的进光量可以在相同场景下拍出亮度更高、锐度更清晰以及噪点更少的照片。对于CMOS图像传感器来说,增加进光量的方法还是很多滴,比如增加传感器尺寸、增大镜头光圈、增加单个像素感光面积、引入UltraPixel超像素摄像头(某凉了的火腿肠ONEM7)。
然而,市场还是证明UltraPixel超像素摄像头不被认可,同时镜头光圈和传感器尺寸也一样,对于手机那可怜的8mm的小身位来说,F/1.6的光圈几乎就是极限了。IMX586通过QuadBayer阵列(索尼提出的一个“四像素合一”的技术)可以实现等效1.6μm单个像素感光面积,更高端的IMX600传感器也才2.μm,依旧存在天花板。
在目前的科技树条件下,要想PK单反,就只能从CMOS图像传感器的底部架构入手了。
开始介绍CMOS图像传感器底层架构之前,首先先说说拜耳阵列,我们人眼睛能看到不同的色彩,主要是因为人眼上有可以感知不同频光线的细胞,CMOS图像传感器就是相机里面可以感受不同颜色的“细胞”,只是我们称他们为像素点,并以拜耳阵列(Bayer array)的形式加以排列。
历史上,柯达公司的影像科学家布莱斯·拜耳(Bryce Bayer)最早发现人眼对红绿蓝三原色中的绿色最敏感,所以他尝试在CMOS图像传感器上方加入了一块滤镜,采用1红2绿1蓝(RGGB)的排列方式将黑白信息转换成彩色信息,让呈现出CMOS图像传感器上的色彩更加接近人眼的视觉效果。因此,几乎所以的CMOS图像传感器都采用了RGGB排列方式,也就是我们常说的“拜耳阵列”,或者“拜耳滤镜”。
但是拜耳阵列也是有缺陷的,因为CMOS图像传感器在进行光电转换过程中无法得到颜色信息,拜耳阵列则是起到了分色的作用,光线经过滤镜时,只允许同种颜色的光进入,红光进红像素,绿光进绿像素,其他颜色的光则被挡在门外,因此我们成像时,除了得到颜色外,还多出了一些明暗的信息。分色也会在过滤光线时候,损失一些光线强度,其他颜色信息也会全部损失掉,记住这是考点:全部。所以拜耳阵列加持下的CMOS图像传感器是永远无法百分百还原真实景物的色彩,只能无限接近于真实,人民为了得出最接近真实的颜色,则需要根据相邻的像素点颜色信息来“猜出”这个位置上过滤掉其他颜色的信息,这种“猜色”环节则被称为“反拜耳运算”。这也解释出为什么拍出的照片会出现“偏色”现象,这是在“猜色”环节中猜错了。
说了这么多,手机厂商应该怎么改良呢?首先则是我们的RGBW结构的CMOS。
RGGB结构
上面也说了,人眼对绿色最为敏感,也因此拜耳才会在RGGB阵列上用上了2个绿色像素。那么我们能不能将其中一个绿色像素(G)换成完全透光的白色像素(W)呢?所以第一款四色传感器诞生了,历史上最早推出RGBW结构CMOS图像传感器的厂商是Omnivision(OV),摩托罗拉旗下的motoX、MotoDroidMIni等产品都用过这类CMOS,只是当时摩托罗拉只将这个称谓“clearPixel”技术。可惜OV在传感器市场以及摩托罗拉日渐式微,这种RGBW的CMOS图像传感器并没有被很多人知晓。
真正将RGBW发扬光大的,则属于索尼的IMX278传感器(华为Mate8、一加3和vivo X7Plus等采用这种传感器,而IMX298也是RGBW结构CMOS)。现在摘抄当年手机厂商宣传口号“低亮度下感光能力可提升32%,噪点降低78%”因此被华为P8和魅蓝6T等手机武装上了。
RWWB结构
上面说了,扣掉一个绿色像素换白色像素就这么强了,为什么不再进一步呢?将两个绿色像素换成两个白色像素岂不是美哉。2015年,联发科在发布HelioP10时,就推出了一项称为“TrueBright”的图像引擎,这个技术的主要核心就是采用了“RWWB”结构的CMOS图像传感器,这种传感器将比RGBW传感器的进光量更大,可惜的是联发科在发布HelioX20时候还主打的这一个技术,直到现在仍旧没有一款RWWB的CMOS图像传感器出炉,我们可以将其称为“薛定谔的传感器”。
纯黑白结构
虽然联发科的RWWB传感器还是是理论层面的存在,但是我们还可以拿来“借鉴借鉴”,比方说为什么不丢掉拜耳滤色镜呢?让CMOS图像传感器实现光线全透岂不是极大增加了传感器的进光面积?于是,索尼推出了专业的IMXMono黑白摄像头,拥有极高进光量,暗光环境下可以记录更多暗部细节。
有利当然也有弊,去掉分色系统后,Mono黑白镜头无法记录彩色信息,所以必须搭配另一颗彩色CMOS图像传感器使用,通过双摄+算法的方式来获得比传统RGGB以及RGBW单摄更好的夜景拍摄效果。时至今日,这种黑白+彩色的双摄组合还是非常的流行,单摄RGBW传感器则被遗忘在历史的长河中...
RYYB结构
作为双摄的先驱者,或者说市场选择了多摄矩阵模块吧,RGBW已经被市场淘汰了。单摄CMOS对于最求更高的进光量这个目标一直没变,如何进一步完成拉近手机与专业单反(其他竞品手机)在夜拍时候的成像差距,是现今智能手机的未来重点发展方向。华为P30系列和荣耀20系列应该算是时下夜拍效果最好的智能手机“班带”了。如果不谈传感器尺寸和光圈以及单个像素感光面积等参数,那么这几款手机几乎是拿自己口碑去赌博,因为RYYB就是将两个绿色像素(G)换成黄色像素(Y)替代。
和RGGB相比,RYYB可以减轻拜耳滤镜在滤色过程中带来光的进光量折损问题,同时可以让进光量提升40%之多。以华为P30Pro来说,这款手机的ISO居然可以达到409600,是iPhone XS Max的64倍!从而只需要一丝亮光即可拍摄到纯黑环境下的颜色细节。
现在开始考试啦,上面在说RGBG,也就是最开始的拜耳阵列时说过,光是由三原色红、绿和蓝组成的,而黄只是其中之一,少了最关键的绿色又该如何还原真实的颜色呢?为此,黄色可以将红色+绿色(R+G=Y)来获得,这也说明黄色是红色和绿色的结合,在亮度上是由两者叠加。所以将三原色重塑后,RYYB的CMOS图像传感器在色彩上将于RGGB传感器有根本性的变化,RGGB光学三原色是加色法,表现的是吸收光,什么颜色像素吸收什么颜色的光。R+G+B即是白色,白色会吸收一切光。RYB三原色则是减色法,表现的是反射的光,黄色反射红色和绿色,R+Y+B是白色,黑色是不吸收光的,反射一切的光。
从理论来说,RYYB滤镜虽然提升了进光量,但是本质还是变相增加红色的进光量而已,从而提升在夜景拍摄中的表现。同时也因为黄色像素较多,会出现偏色问题,绿色像素的缺少也将影响成像质量,饱和度会出现问题。
华为想要完美驾驭RYYB传感器,则是需要一套更加强大的硬件ISP和更加强大的算法。华为终端手机产品线总裁就表示,华为为了保证RYYB滤镜的调色准确性,付出长达3年时间来调教。但是我们在刚开始评测P30的照片时候,就发现了会出现偏色的问题,随后通过固件升级这个现象才慢慢变少。
总结
在智能手机的影像道路上,特定化的优势会带来显著的竞争力。而定制的CMOS图像传感器滤镜结构则体现厂商技术实力的强悍,我们也希望有观点厂商拿出自己对于拍照的独特看法,挑战传统,实现手机挑战单反的梦想。
-
CMOS
+关注
关注
58文章
5718浏览量
235485 -
智能手机
+关注
关注
66文章
18491浏览量
180194 -
图像传感器
+关注
关注
68文章
1901浏览量
129548
原文标题:从RGGN到RYYB,手机图像传感器能逆袭单反吗?
文章出处:【微信号:MEMSensor,微信公众号:MEMS】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论