2023-05-09 丨技术讲堂
【智领讲堂】ADAS要素,140dB HDR为何如此重要
简介:本文对HDR的图像处理技术做了简要的介绍,着重对HDR的应用如何让我们获得更加真实、明亮、细腻的图像,怎样提高图像质量和观感效果 。通过这些技术的分析,让我们对HDR有一个全面的了解。
什么是HDR?
HDR代表高动态范围(High Dynamic Range),它是一个技术术语,可以提供更多的动态范围和图像细节。通常我们在描述一个场景的时候,动态范围指的是其最亮部与最暗部的亮度比值。高动态范围的场景(High Dynamic Range Scene)指的是场景里同时存在非常亮和非常暗的部分。
HDR的来源
事实上,HDR首先作为静止摄影技术而闻名于世,法国摄影师古斯塔夫·勒·格雷(Gustave Le Gray)在1850年代首次使用了它,他了解胶片底片的动态范围限制,并使用两个单独的曝光来创建克服这些限制的图像。
数字化时代浪潮中,随着数码摄影的发展和突破,这些摄影技术概念,得以在相机成像传感器和软件中成为可能,并且HDR技术发展涉及摄影、图像处理、显示技术等诸多软硬件关联领域。
HDR的场景运用
高动态范围图像,受限于图像传感器满阱容量(Full Well Capacity,FWC)和本底噪声,满阱容量小则无法保存更多的高亮信息,本底噪声大则无法记录更多的暗部信息。因此,图像传感器所能捕捉的动态范围是有限的。
所以通过其他的方法,来捕捉这种高动态范围的场景,这就是高动态范围成像技术(HDR Imaging)。
但是,HDR图像在现有显示技术中,也必然要进行动态范围压缩,在HDR硬件范围内处理显示。随着HDR体系的不断进步,以及硬件、软件内容的支持,人们已经在高端显示领域,体验到色彩更丰富、对比度更高的视觉效果。
如何实现HDR显示?
我们通常使用的手机拍照,采集的是10bit RAW数据,无法体现真实环境的动态范围,使用多帧异曝光高动态成像技术,以一次拍摄中曝光、低曝光、加曝光的方式,形成3张或者更多张不同曝光量的RAW数据,经过ISP图像处理及HDR算法融合后bit深度增加,能够体出更多的亮、暗处细节,实现还原接近人眼观察的视觉效果。
车载领域HDR sensor,以近似同时曝光的3帧或者4帧Linear RAW(长曝光、中曝光、短曝光、超短曝光),融合成图像深度较高的HDR RAW(通常为20bit或者24bit),实现sensor硬件输出HDR RAW图就达到提高动态范围的目的,然后经分段线性压缩后,传输到ISP芯片做成像处理,进行图像重建和色彩重建,还原真实场景的清晰度和色彩。所以在曝光配置时,需要注意遵循一些规范,避免一些异常问题的出现。
比如下面图片中,在移动时边缘有轮廓很宽的伪像,拖影非常明显,且伪像带有异常颜色,严重影响机器视觉应用中对物体的识别,而且在人类视觉观感上表现也非常糟糕。
需要通过分析HDR RAW图和Linear RAW图的表现,来辅助判断主要问题出在哪儿,再针对进行调优。
通过分析问题,是Linear帧曝光比配置不合理,硬件合成HDR图像时,拼接处矢量方向上有差异边缘存在伪像,无法融合成完美的真实图像,因此需要以芯厂建议的曝光比,来计算和配置曝光时间,优化此种问题。
通过以合适的曝光比,调整曝光时间后,使帧间offset时间减小,融合得到的HDR图像,就能呈现符合人眼观感的效果。
至于图像中伪像部分的异常色彩,是合成HDR图像前的某一帧本来的颜色,因此需要Linear帧校正,以及配合预处理WB增益来辅助优化,使其融合成HDR图像后,边缘处能以中性色体现。
类似问题点
比如下图,左图为拍摄有太阳的天空,太阳呈现粉色异常现象。原因在于配置曝光时间时,为追求达到更高的动态范围,超短帧曝光时间配置太短,导致图像曝光比不合理,高动态场景高亮度区域出现异常现象。
经过调优,适配合适的曝光时间,且配合其他方式解决异常色彩,问题得到优化,但是高亮度区域(太阳),比之前略过曝一些,具体体现为太阳光轮廓变大,边缘光团面积增加。
总结
人眼的动态范围一般在120dB左右,前视摄像头作为 ADAS/AD 的核心眼,需要在高速行驶时,快速识别不同光照条件下的明暗细节,准确捕获图像,否则影响行车安全。典型的 HDR 需求是当汽车驶出隧道既要识别亮处也要获取暗部细节,或者夜景中识别极暗的行人和极亮的车灯、LED 信号灯等。理想的动态范围需超过人眼 DR,达到 140dB HDR。
因此对于 ADAS 应用,覆盖 120dB HDR 是基本要求,而覆盖 140dB HDR 是汽车机器视觉的趋势所在。
COPYRIGHT 2022浙江舜宇智领技术有限公司.AL RIGHT RESERVED. 浙ICP备2021016533号-1 浙公网安备0000000号 网站声明丨隐私政策 | Design By Mfweb