无人驾驶 如何使用立体视觉实现距离估计 (无人驾驶如何改变未来出行)
双语原文链接: Pseudo-LiDAR — Stereo Vision for Self-Driving Cars
在自动化系统中,和计算机视觉已经疯狂地流行起来,无处不在。计算机视觉领域在过去十年中发展迅速,尤其是是障碍物检测方面。
障碍物检测,如YOLO或RetinaNet,提供2D的标注框,该标注框指明了障碍物在图像中的位置。
为了获取每个障碍物的距离,工程师将相机与激光雷达(光探测和测距)传感器融合,使用激光返回深度信息。利用传感器融合技术将计算机视觉和激光雷达的输出融合在一起。
使用激光雷达这种方式存在价格昂贵的问题。而对此,工程师使用的一个有用的技巧是:对齐两个像机,并使用几何原理来计算每个障碍物的距离。我们称这种新设置为 伪激光雷达。
伪激光雷达利用几何原理构造深度图,并将其与物体探测相结合,以获得三维的距离。
如何利用立体视觉实现距离估计?
以下5步伪代码用于获取距离:
1.校准2台照相机(内部和外部校准)
先建立视差图,再建立深度图
然后,深度图将与障碍检测结合在一起,我们将估算边界框像素的深度。本文结尾处有更多内容。
开始吧!
1.内部和外部校准
每个摄像机都需要校准。校准意味着将具有[X,Y,Z]坐标的3D点(世界上)转换为具有[X,Y]坐标的2D像素。
当今的相机使用针孔相机模型。这个想法是使用针孔让少量光线穿过相机,从而获得清晰的图像。
如果图像中间没有障碍物,那么每条光线都会通过,图像会变得模糊。它还使我们能够确定用于变焦和更好清晰度的焦距f。
要校准相机,我们需要将世界坐标转换为通过相机坐标的像素坐标。
固有参数是我们称为K的矩阵。
过相机校准可以找到K矩阵。
通常,我们使用棋盘格和自动来执行它。 当我们这样做时,我们告诉算法棋盘上的一个点(例如:0,0,0)对应于图像中的一个像素(例如:545、343)。
为此,我们必须使用相机拍摄棋盘格的图像,并且在经过一些图像和某些点之后,校准算法将通过最小化最小二乘方损失来确定相机的校准矩阵。
通常,必须进行校准才能消除图像失真。 针孔摄像头模型包括变形,即“ GoPro效果”。 为了获得校正的图像,必须进行校准。 变形可以是径向的或切向的。 校准有助于使图像不失真。
以下是相机校准返回的矩阵:
每一个计算机视觉工程师都必须了解和掌握摄像机的标定。这是最基本、最重要的要求。我们习惯于在线处理图像,从不接触硬件,这是个错误。
-尝试运行OpeNCV进行摄像机校准。
在相机校准过程中,我们有两个公式可以将世界上的点O设为像素空间:
world到相机的转换
当您进行数学运算时,您将得出以下等式:
如果您查看矩阵尺寸,则不匹配。
因此,我们需要将O_world从[X Y Z]修改为[X Y Z 1]。
2.极线几何--立体视觉
我们的眼睛就像两个相机。因为它们从不同的角度看同一幅图像,它们可以比对两种视角之间的差异,并计算出距离估计。
下面是立体相机设置的示例。你会在大多数自动驾驶汽车上发现类似的东西。
立体相机如何估算深度
假设你有两个相机,一左一右。这两个相机在相同的Y轴和Z轴上对齐。基本上,唯一的区别就是它们X值不一样。
现在,看看下面的描述。
我们的目标是估算出O点(代表图像中的任何像素)的Z值,即深度距离。
现在从鸟瞰的角度来考虑这个问题。
立体相机鸟瞰图说明:
? 我们得到 Z = X*f / xL.
右相机方程:
? 我们获得 Z = (X — b)*f/xR.
放在一起,我们可以找到正确的视差 d =xL -- xR和目标正确的 XYZ 坐标。
3. 视差与深度图
视差是什么?视差是一个三维点从两个不同的相机角度在图像中位置的差异。
? 由立体视觉我们可以估计任何物体的深度。假设我们做了正确的矩阵校准。它甚至能够计算一个深度映射或者视差映射。
为什么是“基线几何”?要计算视差,我们必须从左图像中找到每个像素,并将其与右图像中的每个像素进行匹配。 这称为立体对应问题。
为了解决这个问题--
这是因为两个相机是沿着同一轴对齐的。
以下是基线搜索的工作原理:
基线搜索
应用:建立伪激光雷达
现在,是时候将这些应用到真实世界的场景中,看看我们如何用立体视觉来估计物体的深度。
每一幅图像都有外部参数 R 和 t,事先通过校准确定(步骤1)。
视差
对于每一幅图像,我们可以计算相对于另一幅图像的视差图。我们将做如下操作:
我们将获得左右图像的视差图。
为了帮助您更好地理解差异的含义, 我在 Stack Overflow 上找到了一个很棒的解释 。
从视差到深度图
? 我们有两个视差图,这基本上告诉我们,两幅图像之间的像素位移是多少。
对于每个摄像机,都有一个投影矩阵 P_left 和 P_right。为了估计深度,我们需要估计K, R 和 t。
世界坐标系到相机坐标系的转换
cv2.decomposeProjectionMatrix()的OpenCV函数可以做到这一点,并从 P 中得到 K、R 和 t;对于每个相机,现在是时候生成深度图了。深度图将使用其他图像和视差图告诉我们图像中每个像素的距离。
我们对每个像素进行计算。
估计障碍物的深度
针对每个相机,我们都有一个深度图! 现在,假设我们将其与障碍检测(例如YOLO)结合在一起。 对于每个障碍,这种算法都会返回带有4个数字的边界框:[x1; y1; x2; y2]。 这些数字表示框的左上角和右下角的坐标。
例如,我们可以在左边的图像上运行这个算法,然后使用左边的深度图。
真不可思议!我们刚刚构建了伪激光雷达!
借助立体视觉,我们不仅知道图像中的障碍物,而且知道它们与我们的距离! 这个障碍距离我们28.927米!
立体视觉是一种使用简单的几何图形和一个额外的摄像机将2D障碍物检测转换为3D障碍物检测的技术。如今,大多数新兴的edge平台都考虑了立体视觉,比如新的OpenCV AI Kit或对Raspberry和Nvidia Jetson卡的集成。
在成本方面,与使用LiDAR相比,它保持相对便宜,并且仍具有出色的性能。我们称它为伪激光雷达,因为它可以取代激光雷达的功能。检测障碍物,对障碍物进行分类,并在3D中进行定位。
AI研习社是AI学术青年和AI开发者技术交流的在线社区。我们与高校、学术机构和产业界合作,通过提供学习、实战和求职服务,为AI学术青年和开发者的交流互助和职业发展打造一站式平台,致力成为中国最大的科技创新人才聚集地。
如果,你也是位热爱分享的AI爱好者。欢迎与译站一起,学习新知,分享成长。
版权文章,未经授权禁止转载。详情见 转载须知 。