3D成像:光学的再次创新

光学一直是科技创新的重头戏,智能手机摄像头经历了2D时代像素和个数的倍增,孕育了大立光等优质公司。3D成像技术的成熟拉开了二维向三维升级的帷幕,有望带动光学创新大革命

来源:传感器技术

前言:光学一直是科技创新的重头戏,智能手机摄像头经历了2D时代像素和个数的倍增,孕育了大立光等优质公司。3D成像技术的成熟拉开了二维向三维升级的帷幕,有望带动光学创新大革命(绝非“微创新”可比),本文作为市场首篇深度剖析,将为投资者挖掘相关投资机会。

1、3D 成像究竟是什么?

光学升级一直停留在像素、感光等二维层面,也是智能手机创新周期的主驱动力。3D成像在二维的基础上,实现了像素景深的叠加,拍照的同时记录下对象的立体信息,推动人脸识别、虹膜识别、手势控制、机器视觉等变为现实,是开启AI和AR时代的感知钥匙。

2、为什么说3D 成像即将带动下一轮光学创新浪潮?

1)空间:交互向三维升级,远非平面像素升级可比;

2)产业链:已实现商用,我们判断结构光方案大概率成为2017年某顶级品牌杀手锏;

3)成本:有望实现对传统生物识别的替代,性价比极高;

4)厂商意愿:目前了解到国产大厂跟进意愿极强。

3、为何我们强调要重视3D 成像?

1)大概率爆发,堪比五年前的触屏,一年前的双摄;

2)预期差极大:产业链新,产业和资本3D 成像认知度都不高。

4、3D 成像爆发,潜在受益环节有哪些?

3D成像主要有发射端和接收端组成,我们预计关键器件产能很可能被锁定,严重供不应求,核心零组件拥有充分定价权。发射端高端激光发射器(VCSEL)和准直镜头产能和专利被顶级公司绑定,接收端窄带滤光片产能瓶颈明显。同时3D成像将带动摄像头模组单价大幅提升。

投资评级与估值

我们认为3D成像未来两年将实现快速普及,目前存在强烈的预期差,强烈看好产业链具备核心竞争力的公司,首推滤光片龙头水晶光电,看好核心器件LITE.O、VIAV.O、STM.N、AMS.SIX,模组公司舜宇、欧菲光、丘钛等大概率受益。

有别于市场的观点:

1)我们判断顶级品牌将采用前置结构光,3D成像和虹膜融合;

2)未来两年前置结构光+后置TOF有望得到推广;

3)国产手机跟进意愿强烈,预计明年3D成像即将普及。

风险提示:客户推进不及时;耗电量过大影响待机;手机销量不及预期。

1、3D成像,交互实现向三维的飞跃

1.1     光学的升级一直停留在二维的像素提升

拍照一直是智能手机的重要卖点,像素和拍照性能是换机的主驱动力之一,以iPhone为例,后置相机从单颗2M升级到双12M,前置相机从无到8M,其性能提升幅度远超其他任何零组件。

image.png

image.png

虽然光学性能提升幅度巨大,但是仍然沿用着最传统的原理:二维成像,即把现实三维世界的图像信息映射到二维的CMOS感光元件上实现成像。

image.png

1.2  3D成像包含像素景深信息的叠加

普通摄像头都是2D平面成像的,丢失了物理世界中的第三维信息(尺寸和距离等几何数据),计算机只能实现影像记录和平面图像特征识别,分析算法难度极大,目前能够实现的智能分析功能十分有限。

3D成像能够识别视野内空间每个点位的三维坐标信息,从而使得计算机得到空间的3D数据并能够复原完整的三维世界并实现各种智能的三维定位。

1.3  目前主流的3D成像包括结构光、TOF和双目

主流的3D 成像技术有三种:

1)结构光(Structured Light)。结构光投射特定的光信息到物体表面后,由摄像头采集。根据物体造成的光信号的变化来计算物体的位置和深度等信息,进而复原整个三维空间。

2)TOF(Time Of Flight,飞行时间)。通过专有传感器,捕捉近红外光从发射到接收的飞行时间,判断物体距离。

3)双目测距(Stereo System)。利用双摄拍摄物体,再通过三角形原理计算物体距离。

image.png

image.png

1.3.1   结构光的原理及实现

1)结构光的原理

结构光顾名思义就是有特殊结构的光,比如离散光斑、条纹光、编码结构光等。将这样的一维或二维的图像投影至被测物上,根据图像的大小畸变,就能判断被测物的表面形状即深度信息。

举个例子,拿一个手电照射墙壁,站近或站远,墙上的光斑是不同大小的,从不同角度照射墙,光斑也会呈现不同的椭圆。这就是结构光的基础。而深度计算的方式也有多种,如我们这里重点说一下被苹果公司收购的以色列PrimeSense公司Light Coding方案。

image.png

Light Coding的光源称为“激光散斑”,根据PrimeSense在专利中的描述,红外激光生成器射出准直后的激光束,通过光学衍射元件DOE(Diffractive Optical Elements,如扩散片和光栅)进行衍射,进而得到所需的散斑图案。这些散斑具有高度的随机性,而且会随着距离的不同而变换图案。也就是说空间中任意两处的散斑图案都是不同的。

只要在空间中打上这样的结构光,整个空间就都被做了标记,把一个物体放进这个空间,只要看看物体上面的散斑图案,就可以知道这个物体在什么位置了。当然,在这之前要把整个空间的散斑图案都记录下来,所以要先做一次光源基准标定(pattern)。

Light Coding 发射940nm波长的近红外激光,透过diffuser(光栅、扩散片)将激光均匀分布投射在测量空间中,再透过红外线摄影机记录下空间中每个参考面上的每个散斑,形成基准标定。标定时取的参考面越密,则测量越精确。获取原始数据后,IR传感器捕捉经过被测物体畸变(调制)后的激光散斑pattern;通过芯片计算,可以得到已知pattern与接收pattern在空间(x, y, z)上的偏移量,求解出被测物体的深度信息。

2)技术实现

结构光的实现难度有如下几个方面:

1)首先是经济成本,深度摄像头远高于一般的摄像头;

2)摄像头需要的空间和功率限制,手机摄像头已经可以做到很小的体积和很小的功率,但是深度摄像头还很难,特别是如果希望能达到比较高的精度;

3)很多深度摄像头是需要额外光源的,因此还要专门的散热设备。4)后端的软件匹配。

1.3.2  TOF原理及技术实现

1)TOF原理

Time of Flight是一种主动式深度感应技术,在每个像素点,除了记录光线强度信息之外,也记录下来光线从光源到该像素点的时间(即Time of Flight)。首先让装置发出脉冲光,同时接收目标物的反射光,藉由测量时间差算出目标物的距离。

image.png

如上图所示,假设脉冲波形的频率为f,接收与发送脉冲波形的相位偏移是∆φ,则∆φ/2πf为脉冲波形往返所经历的时间。用光速c乘以时间则可以得到往返距离。

2)TOF技术实现

TOF的硬件实现方式和结构光类似,区别只是在于算法上,结构光采用编码过的光pattern进行投射,而TOF直接计算相位差。

1.3.3 双目测距,传统的3D感知方法

双目测距原理类似人的双眼,在自然光下通过两个摄像头抓取图像,通过三角形原理来计算并获得深度信息。目前的双摄就是双目测距的典型应用。

image.png

1.4 3D成像是开启AI和AR时代的感知钥匙

以AI的机器视觉为例,目前主流在2D图像上通过算法实现智能识别,但是由于2D图像本身包含的信息有限,即使算法再先进,输入信息将成为智能化的短板,如果能够有全面的三维信息,每个对象的三维轮廓、物理特征将更为充分识别,提升导航、轨迹、识别等AI应用能力。同样的,AR应用中3D成像也是必不可少。

image.png

2、3D成像即将带动下一轮光学创新浪潮

2.1  交互向三维升级,想象空间巨大

纵观人机交互的历史,打孔指令带、DOS系统+键盘形成了早期一维人机交互;Windows+鼠标的二维交互方式开启了互联网/PC时代,触摸屏和摄像头的二维交互方式则开启了移动互联网/智能手机时代,而到了以AR为代表的下一代计算平台,则需要三维的交互方式。

image.png

在移动互联网时代,触摸屏和摄像头成为主要的人机交互媒介。触摸屏可以方便地实现各种操作,相比键盘和鼠标更为自然和顺畅。摄像头实现了大量的内容输入,也是一种重要的人机交互媒介。

image.png

但触摸屏和摄像头仍属于2D的交互方式。在触摸屏上,我们只能实现平面范围内的感应和触控,即使出现了3D Touch等新的触控方式,人机交互也依然只局限在一个平面上。而现有的摄像头则只能实现2D图片的拍摄,无法实现3D图像的交互。

image.png

而到了以AR为代表的下一代计算平台,则需要3D的交互方式,这是由AR设备的定义所要求的。AR技术是指借助计算机视觉技术和人工智能技术产生物理世界中不存在的虚拟对象, 并将虚拟对象准确“放置”在现实世界中。通过更自然的交互,呈现给用户一个感知效果更丰富的新环境。

image.png

由于现实环境是3D的,所以AR技术为了实现逼真的效果,也需要产生3D的虚拟对象,并把3D的虚拟对象叠加显示在现实的物理环境中,这就要求AR设备可以实现3D的输入和输出。

image.png

由于AR所需要的是3D的交互,所以现有的触摸屏和摄像头等2D的交互方式并不满足AR的要求,需要新的交互技术。

三维交互的应用广泛:精确的脸部识别可以用于解锁、支付;精确的手势及动作识别可以用于家庭游戏娱乐;精确的人形建模可以让网购更有效率,让移动社交更真实。而全球生物识别(2015年130亿美金)、游戏(2016年996亿美金)、B2C电商(2015年2.2万亿美金)加在一起粗略统计是一个超过2万亿美金级别的市场。哪怕三维成像应用渗透率只有10%,都将造就一个万亿人民币级别的市场规模。3D成像的未来想象空间巨大!

image.png

image.png

2.2 已实现商用,预计成为2017年顶级品牌手机杀手锏

从技术角度来说,3D成像并不是近年才新出现的。自2009年微软发布基于3D成像的游戏体感交互设备Kinect已经有8年时间,而Google的Project Tango也提出了4年。随着图像处理芯片技术的更新换代,AR需求的不断涌现以及AI大数据技术的风起云涌,进一步坐实了一个事实:3D成像已经过了技术基础期,即将进入长达5年以上的高速成长期。

2.2.1  微软Kinect,体感识别游戏终端

2009年6月2日,微软在东京电玩展上首次发布针对XBOX360的体感周边外围设备Kinect,当时的代号为Project Natal(初生计划)。首日便超过了WII主机的发售数据,之后再以光速超越游戏市场上的所有记录,让微软在北美乃至全球市场都可以扬眉吐气。不仅如此,这样具备着强大潜在实力的技术吸引了多达世界上8成左右的游戏厂商加盟,为后续的游戏产业链奠定了坚实的基础。

image.png

Kinect彻底颠覆了以往游戏的人机交互方式,相比对手任天堂Wii依靠游戏杆上的传感器Wii Remote识别用户动作的限制,Kinect不需任何手持设备,能捕捉玩家全身上下的动作,直接用身体来进行游戏,带给玩家“免控制器的游戏与娱乐体验”,也让游戏类型更加丰富。

image.pngimage.png

Kinect V1采用PrimeSense(2013年被苹果收购)结构光方案,硬件上由三个镜头组成,中间的镜头是 RGB 彩色摄像头,用来采集彩色图像。左右两边镜头则分别为红外激光发射器和红外CMOS 摄像头所构成的3D结构光深度感应器,用来采集深度数据(场景中物体到摄像头的距离)。

彩色摄像头最大支持640*480分辨率成像,红外摄像头最大支持320*240成像。同时,Kinect V1还搭配了追焦技术,底座马达会随着对焦物体移动跟着转动。Kinect V1也内建阵列式麦克风,由四个麦克风同时收音,比对后消除杂音,并通过其采集声音进行语音识别和声源定位。

image.png

PrimeSense的结构光方案,通过Infrared projector发射一副具有三维纵深的“立体”编码近红外激光(光源通过准直镜头和DOE器件形成衍射光斑),再通过接收端的Infrared camera收集经人体反射回来的红外光线。

这种光斑具有高度的随机性,而且随着距离的不同会出现不同的图案,也就是说在同一空间中任何两个地方的散斑图案都不相同。只要在空间中打上这样的结构光然后加以记忆就让整个空间都像是被做了标记,然后把一个物体放入这个空间后只需要从物体的散斑图案变化就可以知道这个物体的具体位置。

image.png

当然,首先后台需要保存空间标定数据,假设Kinect规定的用户空间是距离电视机的1米到4米范围,每个10cm取一个参考平面,那么标定下来我们就保存了30幅散斑图像,需要进行测量的时候,拍摄一副待测量的散斑图像,作为基准数据信息。

将这幅图像和我们保存下来的基准数据信息依次做互相关运算,这样我们会得到30幅相关度图像,而空间中的物体存在的位置,在相关图像上会显示出峰值,把这些缝制一层层叠加在一起,在经过插值运算就会得到整个场景的三维形状了。

2.2.2  Google Project Tango, 全球首款AR智能手机

Tango在谷歌已存在4年时间,2013年初谷歌的ATAP(先进科技与计划)团队就已开始着手相关的研发。Project Tango的技术主要是使用传感器和摄像头来对室内建筑进行3D建模,同时还具备无限宽广的应用场景,包括绘制3D地图,帮助盲人在陌生的地方导航,让人们能利用家中的环境玩拟真的3D游戏等。

image.png

2014年2月,Project Tango的原型机亮相,只面对开发者提供首批200台原型机。根据拆机图片,前置摄像头已省去,后置包含4颗镜头,分别是普通的400万像素 RGB摄像头,用于3D成像的红外发射器和红外接收器,以及一颗鱼眼镜头用于动作捕捉。这三颗摄像头模组均由大陆模组厂商舜宇光学提供。

另值得一提的是,硅谷初创公司Movidius(2016年9月被Intel收购)的处理器用于辅助CPU进行图像的运算处理。整机配有一颗容量3000mAh容量的锂电池。

image.png

搭载Tango的首款商用机型联想Phab2 Pro于2016年Tech World大会正式发布,价格为499美元,Phab2 Pro尺寸达到了6.4"。同时,配有全金属机身和2.5D盖板玻璃。

由于PrimeSense被苹果收购,Google在Phab 2 Pro改用TOF技术进行3D 成像,设有三种摄像头:最上方一颗是三星的1600万像素RGB CMOS摄像头,用于常规拍照;最下方是OV鱼眼镜头,用于动作捕捉;两者之间则是TOF系统构成,有上方的Princeton提供的IR VCSEL,和下方英飞凌及pmd共同提供的IR Depth sensor。这三颗摄像头模组均由大陆模组厂商舜宇光学提供。

image.png

image.png

为了提供三维场景,三种摄像头各司其职,并与其它传感器“合作”,以实现以下功能:

(1)运动追踪(Motion Tracking):通过移动设备自带的多种传感器,在不通过外界信号的情况下,实时获取设备的姿态与位置,追踪设备在三维空间中的运动轨迹。Tango创新性地采用了摄像头与惯性测量单位(IMU)结合的方法来实现精确的运动追踪功能。

(2)环境学习(Area Learning):利用视觉信息记录与索引外界环境,自动矫正环境构建与运动追踪中积累的误差,识别重复环境。该功能描述起来很容易,但实施起来则相当的困难,首先设备会对其拍摄的每一帧照片提取特征,然后对出现的特征进行保存和引索,再利用一些高效的储存和搜索算法,实时地判断新的一帧是否跟过去曾经拍摄的环境有相似之处,如果匹配准确的话,设备可以立即利用之前已经收集的环境信息。

(3)深度感知(Depth Perception):利用自带的三维飞行时间摄像头扫描外界三维环境,构筑三维模型,再配合运动追踪,即可告诉设备在空间中的位置,与四周障碍物的距离。

2.3  成本:有望实现对传统生物识别的替代,性价比极高

正如我们上文所述,如果将3D成像搭载在手机前置摄像机,可以通过利用人脸识别完成屏幕解锁,同时可以利用虹膜识别完成密码支付,其安全性将强于目前的指纹识别。

2.3.1   成本增加较少,安全性更强

经过我们的测算,以顶级客户方案为例,目前其BOM成本不超过15美元,而前置3D成像完全可以实现对Touch模组的替代,而后者目前BOM成本约在6-7美元,所以3D成像实际增加成本在5-10美元,成本增加并不明显。

2.3.2  手机可以做到屏幕占比很高

3D成像除了更安全,实现更多功能以外,也符合苹果的持续追求的外观目标:增加屏幕在手机中的占比。从iPhone4开始,通过窄边框提升屏幕在手机正面占比,而OLED显示的成熟更可以充分利用正面有效面积,而这时庞大的Touch区域已经显的非常碍眼了,所以从我们产业了解到信息,手机厂一直有强烈的意愿取消掉前置的Touch模组,而3D成像正好完美解决这一痛点。

image.png

2.4  厂商意愿:目前了解到国产大厂跟进意愿极强

结构光方案最主要的玩家PrimeSense被苹果收购后,部分客户转向了TOF方案,但是仍然有方案公司继续在结构光领域探索。深圳的奥比中光便是其中的代表,目前其结构光方案已经较为成熟,可以商用在机器人、无人机导航等领域,同时手机微型化的方案也正是推出。

目前我们了解到国产手机大厂对于3D成像需求非常迫切,跟进意愿极强,已经开始寻找PrimeSense以外的结构光方案合作商,而奥比中光正好弥补了这一缺口。

image.png

3 、3D成像将是下一个爆发式的创新

3.1 回顾触控和双摄,真正的革命渗透速度极快,享受估值溢价

3.1.1  触摸屏曾经的辉煌,大陆电子产业的启蒙

大陆电子产业,尤其是上市公司,在2010年以切入苹果产业为标志,享受下游需求快速增长的同时,也实现了对台湾供应链的节节胜利。其中触摸屏可谓是行业的启蒙者:

1)自iPhone带动以后,触摸屏在2010年以后实现爆发式成长;

2)以莱宝高科为例切入苹果产业链以后业绩的突飞猛进也让市场记忆深刻;

3)随后国产手机的跟进,造就了一批欧菲、合力泰、信利等触控的大牛股。

image.png

苹果产业开始推动大陆资本市场对于电子的研究范式大为革新,市场认识到电子行业也是成长股的摇篮。7年以后的今天,虽然市场担心创新放缓,但是任何快速渗透的技术都不应该忽视,真正的革命能够享受估值溢价。

3.1.2 双摄带动摄像头空间翻倍,微创新也有大能量

最近一个快速渗透的例子就是双摄像头,自iPhone7推出以后,双摄已经成为高端手机的标配,其渗透速度也经历快速爆发,即使在手机增长放缓的背景下,舜宇、大立光、丘钛等相关公司也实现了戴维斯双击。

舜宇等公司不是个例,我们认为其股价持续创新高,体现了光学杰出的行业属性,即使是双摄像头个数的创新就能带动行业持续成长。

image.png

3.2 预期差极大,产业和资本认识不足

3.2.1  大陆台湾产业链参与少,3D成像预期差大

iPhone刚上市的时候保密性极佳,尤其是iPhone4上市着实给市场很大震撼,但随着销量规模的飞速成长和大陆台湾公司越来越多的参与,iPhone创新提前走漏的案例比比皆是,大部分iPhone8的创新在2016年就已经提前被产业链所获知,所以资本市场提前会有预期,但是这次3D成像保密性可谓前所未有,所以消息源是来自于美股的公司业绩说明会透露的细节。

到目前为止,市场对于3D成像究竟用结构光还是TOF尚未认识完全,至于具体的产业链细节和工作原理更是知之甚少,所以这次光学变革预期差充足。市场一度有人猜测为苹果将采用tof的成像方案,也侧面说明了此次3D成像的保密的成功。

3.2.2 方正观点:预计苹果将采用前置结构光方案,融合虹膜识别

苹果早在多年前已经开始3D成像的布局,2013年收购结构光主要方案是Primesense,同时也公布了US9519396B2(利用三维信息完成合成)、US8933876B2(三维空间手势识别)、诸多线索指向苹果未来的3D成像意图。

image.png

从原理上来看,结构光只需要拍两次照即可实现3D距离的探测,而tof成像延时较长,图像分辨率偏低;同时由于结构光光斑较多,衍射范围大,如果探测距离较远容易影响精度,所以探测距离是结构光的劣势。

苹果2013年斥资3.45亿美元收购Primesense,而Primesense正式结构光方案最主要的专利持有者。我们判断苹果的3D成像将会以前置的方式配置,考虑到在前置方案需要高精度、低延时,同时对于探测距离要求并不高,所以我们认为苹果的3D成像将会是前置结构光的方式呈现。

同时,我们判断在该方案中除了传统的前置RGB摄像头以外,会在两侧增加发射和接收端用于探测景深信息,其中接收端是特殊制程的CMOS,用于接收窄带红外光,同时该CMOS也会结合虹膜识别的功能。

image.png

3.2.3  从iPhone7的TOF传感器窥探苹果的3D成像布局

iPhone5开始,苹果已经在距离传感器上面小试牛刀,最早是将AMS的距离传感器放置在听筒附近,当接电话的时候利用红外光飞行时间(time of flight)探测到脸部距离以后控制屏幕的亮度,实现更省电的方案。

这一设计沿用到iPhone6S,直到iPhone7开始,苹果将原来沿用的环境距离传感器升级为更精确的TOF传感器。在新的TOF方案中,利用高效率的VCSEL激光器和光子接受点阵SPAD作为发射和接收端,VCSEL发射出16个点阵激光,然后利用SPAD能够探测到比单点距离传感器更丰富的距离、脸型等特征信息。

从这一变化可以看出,苹果虽然前置3D成像不会使用TOF,但是对于TOF苹果的态度也是开放的,考虑到TOF在远距离景深探测的优势,我们判断在2018年以后TOF大概率将以后置摄像头的形式出现。苹果在3D成像的雄心绝对不容小视:前置实现手势控制、人脸识别、虹膜识别等短距精确的功能,后置实现AI、AR等长距的功能。

4、3D成像爆发,潜在受益环节分析

4.1  关键器件被锁定,严重供不应求,核心零组件拥有充分定价权

这次苹果不仅领先了资本,还领先了产业,在苹果精心的布局慢慢浮出水面后,产业发现苹果早已将结构光产业的关键零组件进行了深度绑定,其他品牌厂难以完全复制。

所以,现在产业面临的问题的快速爆发的需求和上游稀缺的产能,所以也不难理解国产品牌对此的深深忧虑,所以我们判断现在的3D成像和去年的双摄格局非常像,品牌厂为了追求新功能,只有不惜血本寻找有效产能,核心零组件公司将拥有充分定价权,坐拥数年的黄金成长期!

4.2  发射(LDM):高端光源被锁定,准直镜头haptagon拥有专利

发射端主要由点光源VCSEL、准直镜头和扩散片DOE构成。大致原理是VCSEL发出940nm点激光之后通过准直镜头矫准为线性激光,线性激光照射在DOE上发生衍射,形成近千个具备调制信息的光斑(lighting code)。

由于扩散片对于光束进行散射的角度(FOV)有限,所以需要光栅(见下图)将散斑图案进行衍射“复制”后,扩大其投射角度。这种“复制”效果被称为光学卷积,能得到所需透射角度的散斑。

image.png

4.2.1 VCSEL光源:小型化、转换效率高

红外光常被用于3D 成像,发射红外线的光源可以是LED或激光。VCSEL(Vertical Cavity Surface Emitting Laser,垂直腔体表面发射激光器),具备体积小、光电转换效率高、精度高、低成本、窄波瓣等特性,成为最适合消费电子使用的光源。波长一般选取940nm。

image.png

目前主流的VCSEL供应商是Lumentum、II-VI和Finisar,不排除都已经被顶级客户深度绑定,我们测算下来,单个VCSEL的成本在1.5-2美金。

4.2.2  准直镜头:WLO工艺,大部分专利被haptagon掌握

利用光的折射原理,将波瓣较宽的衍射图案校准汇聚为窄波瓣的近似平行光。目前大部分专利都掌握在haptagon收购的mesa手上。该镜头是利用WLO的工艺制程,我们判断是4P的结构。

其分为上下两片的结构,其中每片中间是滤光片,由类似于水晶光电的镀膜厂在白玻璃上镀完AR膜以后交给haptagon,后者在玻璃上利用晶圆级工艺上下生长出replication material,并加工成透镜的形状,最后将两片滤光片粘合并切割,完成WLO工艺的制作。

image.png

不同于普通的lens,一片8寸的白玻璃可以切割成数千颗准直镜头,而利用WLO工艺可以有效降低制造成本。相对普通的手机摄像头lens,其缺点在于不能调焦,但是LDM本身只需要将定点的点光源转换成线光源即可。经过我们调研,单颗准直镜头成本在2-3美金。

image.png

4.2.3 DOE扩散片:门槛高,供应商较多

DOE是利用光的衍射原理,将点光源转换为散斑图案(pattern)。先制作3维的母模,其3维图像具备调制信息,然后母模再制作镜头。制作出的镜头拥有3维的图案,同时间隔都在微米级别,线性激光通过的时候发射衍射,同时衍射的角度和个数是受pattern影响的,衍射出来的光斑具备lighting code的信息。

我们预计,目前DOE扩散片主要有德国的CDA公司制作,ASP约2-3美金。

image.png

4.3 接收端:融合虹膜识别,low pass filter是主要瓶颈

4.3.1 Low pass filter只有两家供应商,充分享受行业爆发

相对于LDM,接收端相对要简单很多,主要是lens、pass filter和特制CMOS构成。由于接收端主要是接收反射回来的lighting code来生成对象景深信息,所以只需要通过940nm的红外光即可,在lens下面的pass filter需要过滤掉其他多余的光线,而该窄带pass filter制作工艺远大于传统的滤光片(需要镀50层膜实现窄带带通,同时为保证透光性,不能使用蒸镀工艺),目前基本只有美国的VIAV和中国东部某滤光片大厂拥有。

而从VIAV的业绩说明会来看,也验证其获得国际顶级手机客户的订单意向,考虑到该行业仅有两家供应商,该客户巨大的出货量,将为VIAV带来充足的业绩弹性。

根据我们的产业链调研,接收端lens不超过1美金,pass filter约0.6美金。

4.3.2 特制红外CMOS,融合虹膜识别功能

该CMOS和普通的RGB不一样,因为主要是接收反射回来的lighting code,发射光在通过Low pass filter之后,本身就是窄带光,所以不需要其他波长的感光点。而由于LDM的光斑本身不超过千个,接收反射光也不需要太高的像素,每幅图像素不会超过2056*1024,所以2M像素的CMOS即可。

另外,该CMOS也融合了虹膜识别功能,我们判断在前置模组中还包含一颗类似波段的红外LED,用于照射虹膜,反射光照射在特制CMOS上实现虹膜识别。

经过我们的测算,我们判断该CMOS的ASP不超过2美金。

4.4  模组厂:ASP接近双摄,摄像头模组厂受益

从我们上面的分析可以看出,LDM单价在7美金左右,接收端在3美金左右,整个发射、接收和前置RGB摄像头做成一个模组,目前主要是LG和sharp在配合前期开发,我们认为普通的摄像头模组厂如舜宇、欧菲、丘钛等也有能力进行配合,所以摄像头模组厂也会受益于前置摄像头单价的提升。

格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论