智能感知技术在汽车、机器视觉和边缘人工智能等领域的应用越来越多。汽车是非常传统的行业,最近几年,电力化和智能化的发展为这个行业带来了新的动力,各种感知产品的应用使汽车变得更安全、更舒适。
机器视觉同样是一个历史很悠久的行业,其应用广泛且多样化,涵盖了包括电子制造、平板检测、机器人、物流等在内的多个细分市场。
目前,中国已成为全球机器视觉市场增长最快的国家。边缘人工智能是新兴市场,主要是由人工智能、5G、IoT等新技术推动,发展非常迅速。
安森美半导体近日举办了“智能感知策略及方案”在线媒体交流会,智能感知部全球市场及应用工程副总裁易继辉分析了重点应用市场的需求和趋势,介绍了安森美半导体最新的智能感知发展策略,以及全方位智能感知技术和方案。
CMOS图像传感器的发明者
安森美半导体在成像传感器行业有超过40年的历史,在传感技术方面经历了多次并购,如Cypress的CMOS 图像传感技术、TRUESENSE的CCD图像传感技术,以及Aptina的高容量CMOS 和汽车图像传感器。
TRUESENSE的前身是柯达影像,柯达影像的核心技术来源于贝尔实验室CCD影像。Aptina的前身是美国航天宇航局JPL喷气式推动器实验室。1993年,JPL为了阿波罗登月开发出全球首款CMOS图像传感器。27年过去了,CMOS图像传感器已得到广泛应用。
从三年前开始,安森美半导体又陆续收购了IBM在以色列的毫米波雷达研发中心,以及专注于飞行时间(ToF)激光雷达传感器开发的爱尔兰SensL公司,以满足汽车自动驾驶、机器人、医疗成像等对LiDAR及传感器融合的需求。
图3:安森美半导体是CMOS图像传感器的发明者。
随着第四代工业革命的到来,人工智能对人类社会产生了巨大的影响。斯坦福大学人工智能专家、被人尊称为“人工智能之父”的Andrew Ng认为人工智能是新的电力,如同第二次工业革命电力一样,给整个人类带来了深入的改变;数据是人工智能的动力和发动机;感知是数据的燃料。
“安森美半导体的全系列智能感知方案包括图像感知、多光谱、高光谱的感知,以及激光雷达感知、毫米波雷达感知和传感器融合等,这一切推动了AI和第四次工业革命的进步,”易继辉说:“如果把人工智能比作大脑,那么我们就为大脑提供了眼睛。”
图4:安森美半导体的全系列智能感知方案。
汽车感知爆发式成长
未来的汽车是一个架在四个轮子上、具有极强感知能力的计算机。ADAS摄像头、倒车摄像头、电子车镜、驾驶员监控、乘务员监控、毫米波雷达和激光雷达,现在最好的汽车感知系统已经远远超过了人类的感知能力。
“汽车成像是给人眼看的,如驾驶员、乘客、后视、环视、电子后视镜,安森美半导体在全球占》60%的市场份额;汽车感知是供人工智能和机器视觉用的,安森美半导体占全球》80%的市场份额,而且在逐年扩大。”
易继辉介绍说,在人眼视觉中,图像是为人眼所见并欣赏的,因此通常需要做到清晰、细致、色彩丰富且美观;而在机器视觉中,图像需提供足够的信息,例如边缘、形状、大小等,供算法读取并理解。
汽车成像主要面临三大挑战:
一是宽动态,例如从灰暗的地库开到正对太阳强光的户外,夜晚在对向远光大灯照射下感知树荫下的行人,这些都需要图像传感器具有高动态范围。
二是环境条件,汽车应该能在东北零下几十度的环境下行驶,也能在沙漠或者南方的高温条件下驾驶。
三是对图像传感器来说十分独特的挑战:辨别LED指示牌和交通灯。图像传感器有时会因为频率不同步而捕捉不到信号,这对于驾驶员人眼来说并不是问题,但对机器视觉却是很大的挑战。
图5:汽车成像面临三大挑战。
随着车联网的发展,未来的自动驾驶汽车不仅是“可靠的汽车”,更是“可信的汽车”,具有功能安全性和网络安全性。“Hayabusa是整个市场具有最高宽动态效果和第一款具有网络安全功能的产品,最近已经上市。”易继辉说。
易继辉提到智能驾驶舱也越来越受重视,例如驾驶员识别、车椅位置调节、空调温度、乘客监控等。
图6:智能驾驶舱可进行驾驶员识别、车椅位置调节、空调温度和乘客监控等。
在谈到自动驾驶时,易继辉形象地介绍了L0~L5的概念。他说,L1叫做脱脚(feet off),脚可以自由;L2是脱手(hands off),手可以放开驾驶方向盘;L3是eyes off,驾驶员的眼睛可以不看了;第四级是mind off,脑子不用想了;第五级叫做limit off,即没有任何局限、可以在任何场景下自动驾驶了。
图7:中国汽车驾驶自动化分级的智能感知配置。
“从L1到L5,传感器的数量和种类不断增加。最大的差别在L3和L4,L4必须要激光雷达,对L3,激光雷达是可选的。”易继辉认为,“L3仍然需要驾驶员控制汽车,L4则完全不需要考虑驾驶员。L3就像加减法,L4是微积分:加减法永远算不出极限值,只有微积分才能算出极限值,所以只有在L4的情况下才能涵盖所有极限情况。”
图8:安森美半导体汽车感知+视觉的总体方案。
毫米波雷达在L1~ L5的不同自动驾驶级别上有不同的应用。安森美半导体开发了一种叫做“MIMO+”的专利技术,能够提供4D信息:距离(R)、速度(V)、角度(A)、高度(E),用于L3级的自动驾驶。
图9:毫米波雷达技术在自动驾驶中的应用。
工业机器视觉和边缘人工智能应用
工业4.0、工业自动化、人工智能使机器视觉市场快速发展。边缘人工智能不断应用于一些新的领域,如新零售、智慧农业、畜牧业和农业。
“在新冠后疫情时期出现了一些趋势:一是远程化,远程教学、远程医疗越来越普遍;二是无人化,包括无人送货车、无人商店等,减少了人和人之间的接触,即无接触化。”易继辉说。
图10:工业机器视觉及边缘人工智能市场增长。
易继辉介绍,平板检测是整个工业机器视觉行业中对图像传感器最具挑战性的应用。从1K、2K、4K到8K,像素在逐渐扩大。
检测过程分两步:第一步是暗检测,上电前主要检测一些指纹、划痕和其他物理问题;第二步是上电以后,特别是检测OLED和最新的AMOLED(Active Matrix OLED)。
LED有一个亮板在后面作为发光源,而OLED和AMOLED的每个像素都是一个单独发光源。像素和像素之间发光的强度和色彩的均匀度需要很准确地侦测出来,因而对图像传感器的要求很高。
过去检测LED面板上的1颗像素,对应需要9颗像素(3×3),检测OLED则需要16颗(4×4)甚至25颗(5×5)像素,因此对图像传感器的像素要求越来越高,从4,500万到1.5亿像素,甚至超过2亿像素。
图11:平板检测对图像传感器要求很高。
从下图可以看出,图像传感器的分辨率逐年提升,从过去的200万、500万、800万、1200万像素,到现在超过2000万像素。对于同样尺寸的图像传感器,噪声导数逐年随着像素的增大而不断提高。带宽也在逐年增加。
易继辉举例说,一个29 × 29mm2 的标准工业用摄像头,十年前可能只是200万像素,后来逐渐增加到300万、500万、1200万像素,今年已经达到了1600万像素,这是由技术推动的。这些技术包括:
全局快门,在高速运动下图像不会有拖影;
像素内图像校正,以前是在系统里通过软件校正,现在直接在硬件里,即像素内部做图像校正;
工艺节点,从110纳米到65纳米,再到45纳米甚至更小,成本、尺寸、耗电量逐年下降;
背照式,可提高感光能力;
堆栈架构,将模拟和数字信号放在第二层,人工智能的一些算法放在第三层,实现高智能化的图像传感器。
图12:1.3英寸固定尺寸图像传感器的发展。
“我们用NVIDIA Xavier Edge GPU做人工智能训练,精度可达97%,其中AR1335(1300万)图像传感器可提供了高质量的图像,提高了人工智能的判断精度。”易继辉表示,“我们的目标是在工业机器视觉中利用人工智能。”
图13:采用AR1335图像传感器的水果新鲜度分类系统。
无接触系统的成长潜力也非常大。安森美半导体的AR0230 HDR具有200万像素及宽动态范围,能提供很好的图像质量,进而提高人工智能的判断精度,应用于无接触付款以及飞机场、火车站、高铁站等无接触的通过闸口。
图14:人脸识别付款应用(AR0230 HDR)。
结语
从第一次工业革命机械化到第二次工业革命电力化,到第三次工业革命计算机数字化,再到现在的第四代工业革命人工智能化、信息化,人工智能对人类社会的影响和改变远远超过计算机数字工业革命。
如果把人工智能比作大脑,感知就相当于眼睛。安森美半导体提供了全面的感知技术,如图像感知,多光谱、高光谱的感知,激光雷达感知、毫米波雷达感知和传感器融合等,所有这些技术都推动着人工智能和第四次工业革命的进步。
责任编辑:haq
-
传感器
+关注
关注
2551文章
51106浏览量
753644 -
安森美
+关注
关注
32文章
1682浏览量
92014 -
机器视觉
+关注
关注
162文章
4373浏览量
120331 -
人工智能
+关注
关注
1791文章
47282浏览量
238531
发布评论请先 登录
相关推荐
评论