面向自动驾驶系统的相机—激光雷达的自动标定
发布时间:2021-08-07 06:16
自动驾驶是近年来的热门课题,涉及感知、控制、规划等复杂任务,其首要任务是实现基于多传感器融合的智能感知,而精确的多传感融合依赖于传感器之间的坐标系转换关系(外参数)。在当前主流的自动驾驶方案中,相机(单目相机、双目相机)能提供丰富的特征和纹理信息,激光雷达(LiDAR)能提供高精度的物体深度信息,两者的高精确度的数据融合至关重要,因而相机和激光雷达的高精确度外参标定十分必要(外参标定是指估计传感器之间相对的旋转和平移,即外参数)。当前,面向自动驾驶的相机和激光雷达自标定算法面临着一些挑战:(1)现存方法大多基于初始值对外参数进行优化,由于车辆在连续运动,难以通过传统的利用标定板或手动操作的方法获得外参数的初始值;(2)自标定算法利用原始的相机图像和激光雷达点云进行标定,应对数据质量的宽容度高;(3)车辆长时间行驶的过程中可能出现传感器位置的偏移,标定算法应能够进行及时的修正。为解决标定算法获得外参数初始值问题,本文提出了一种新颖的相机-激光雷达系统外参数标定方法,利用手眼标定的方式来解决标定算法中获取初始值问题,并通过引入单目相机深度值估计来解决单目相机运动中感知尺度丢失的问题。为了在...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:85 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
第1章 绪论
1.1 课题背景和意义
1.2 研究现状
1.2.1 相机标定研究现状
1.2.2 相机-激光雷达外参手动标定研究现状
1.2.3 相机-激光雷达外参自动标定研究现状
1.2.4 基于特征的方法
1.2.5 基于运动的方法
1.2.6 基于互信息的方法
1.2.7 基于深度学习的方法
1.3 本文的主要研究内容
1.4 本文的章节安排
第2章 相机、激光雷达的光学模型和内参标定
2.1 相机的针孔模型
2.1.1 空间的旋转和平移
2.1.2 理想针孔相机模型
2.1.3 相机成像畸变
2.1.4 数据结果
2.2 激光雷达的机械结构和工作原理
2.2.1 测距原理
2.2.2 数据格式
2.2.3 数据结果
2.3 张氏标定法
2.3.1 单应性矩阵
2.3.2 根据约束求解
2.3.3 实验结果
2.4 Kalibr工具——相机内外参数和机器人状态联合在线估计的标定方法
2.4.1 建立高斯运动-观测模型
2.4.2 梯度优化
2.4.3 通过信息熵更新标定
2.4.4 实验结果
2.5 基于单帧数据和标定板的相机-激光雷达内外参标定
2.5.1 角点检测和棋盘格生长
2.5.2 亚像素精细化处理
2.5.3 外参计算
2.5.4 实验结果
第3章 几类重要的相机-激光雷达自标定方法
3.1 基于互信息的自标定
3.1.1 互信息概念
3.1.2 概率估计
3.1.3 梯度优化
3.2 基于边缘特征匹配的自标定方法
3.2.1 边缘和深部连续的一致性假设
3.2.2 边缘提取
3.2.3 优化目标函数
3.3 基于运动的自标定方法
3.3.1 问题阐述
3.3.2 参数求解
3.3.3 误差估计
3.4 基于深度学习的方法
3.4.1 神经网络的输入
3.4.2 神经网络架构
3.4.3 损失函数
第4章 基于深度-边缘匹配的自标定算法的理论基础
4.1 李群和李代数简述
4.1.1 李群和李代数的定义
4.1.2 旋转矩阵和李代数的关系
4.1.3 李代数运算
4.1.4 指数映射
4.2 图像相邻帧的特征匹配
4.3 无尺度的单目视觉里程计
4.4 基于深度信息的单目视觉里程计
4.4.1 问题阐述
4.4.2 控制点求解
4.5 光束平差法
4.6 基于迭代最近点的激光雷达点云配准
4.7 协方差自适应调整的进化策略
4.7.1 构建高斯模型
4.7.2 最大似然估更新参数
4.7.3 优化步长调整
4.8 基于有序回归网络的单目深度估计
4.8.1 稠密特征提取
4.8.2 场景理解
4.8.3 距离渐进离散化
4.8.4 多分类回归
第5章 基于深度-边缘匹配的自标定方法与实验结果
5.1 问题阐述
5.1.1 外参的初始化
5.1.2 数据转换
5.1.3 参数优化
5.2 算法实现
5.2.1 第一阶段——基于手眼标定的初始化
5.2.2 第二阶段——基于深度匹配的标定
5.2.3 第三阶段——基于深度-边缘的标定
5.3 系统实现
5.4 实验结果
5.4.1 实验设备和数据
5.4.2 误差评价
5.4.3 初始化实验
5.4.4 相较于基于边缘匹配的原方法的改进的实验
5.4.5 在搭建的自动驾驶系统上的实验
结论
参考文献
攻读硕士学位期间发表的论文及其他成果
致谢
本文编号:3327247
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:85 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
第1章 绪论
1.1 课题背景和意义
1.2 研究现状
1.2.1 相机标定研究现状
1.2.2 相机-激光雷达外参手动标定研究现状
1.2.3 相机-激光雷达外参自动标定研究现状
1.2.4 基于特征的方法
1.2.5 基于运动的方法
1.2.6 基于互信息的方法
1.2.7 基于深度学习的方法
1.3 本文的主要研究内容
1.4 本文的章节安排
第2章 相机、激光雷达的光学模型和内参标定
2.1 相机的针孔模型
2.1.1 空间的旋转和平移
2.1.2 理想针孔相机模型
2.1.3 相机成像畸变
2.1.4 数据结果
2.2 激光雷达的机械结构和工作原理
2.2.1 测距原理
2.2.2 数据格式
2.2.3 数据结果
2.3 张氏标定法
2.3.1 单应性矩阵
2.3.2 根据约束求解
2.3.3 实验结果
2.4 Kalibr工具——相机内外参数和机器人状态联合在线估计的标定方法
2.4.1 建立高斯运动-观测模型
2.4.2 梯度优化
2.4.3 通过信息熵更新标定
2.4.4 实验结果
2.5 基于单帧数据和标定板的相机-激光雷达内外参标定
2.5.1 角点检测和棋盘格生长
2.5.2 亚像素精细化处理
2.5.3 外参计算
2.5.4 实验结果
第3章 几类重要的相机-激光雷达自标定方法
3.1 基于互信息的自标定
3.1.1 互信息概念
3.1.2 概率估计
3.1.3 梯度优化
3.2 基于边缘特征匹配的自标定方法
3.2.1 边缘和深部连续的一致性假设
3.2.2 边缘提取
3.2.3 优化目标函数
3.3 基于运动的自标定方法
3.3.1 问题阐述
3.3.2 参数求解
3.3.3 误差估计
3.4 基于深度学习的方法
3.4.1 神经网络的输入
3.4.2 神经网络架构
3.4.3 损失函数
第4章 基于深度-边缘匹配的自标定算法的理论基础
4.1 李群和李代数简述
4.1.1 李群和李代数的定义
4.1.2 旋转矩阵和李代数的关系
4.1.3 李代数运算
4.1.4 指数映射
4.2 图像相邻帧的特征匹配
4.3 无尺度的单目视觉里程计
4.4 基于深度信息的单目视觉里程计
4.4.1 问题阐述
4.4.2 控制点求解
4.5 光束平差法
4.6 基于迭代最近点的激光雷达点云配准
4.7 协方差自适应调整的进化策略
4.7.1 构建高斯模型
4.7.2 最大似然估更新参数
4.7.3 优化步长调整
4.8 基于有序回归网络的单目深度估计
4.8.1 稠密特征提取
4.8.2 场景理解
4.8.3 距离渐进离散化
4.8.4 多分类回归
第5章 基于深度-边缘匹配的自标定方法与实验结果
5.1 问题阐述
5.1.1 外参的初始化
5.1.2 数据转换
5.1.3 参数优化
5.2 算法实现
5.2.1 第一阶段——基于手眼标定的初始化
5.2.2 第二阶段——基于深度匹配的标定
5.2.3 第三阶段——基于深度-边缘的标定
5.3 系统实现
5.4 实验结果
5.4.1 实验设备和数据
5.4.2 误差评价
5.4.3 初始化实验
5.4.4 相较于基于边缘匹配的原方法的改进的实验
5.4.5 在搭建的自动驾驶系统上的实验
结论
参考文献
攻读硕士学位期间发表的论文及其他成果
致谢
本文编号:3327247
本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/3327247.html