基于视觉的移动机器人同时定位与建图算法的研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-19页 |
1.1 课题研究背景和意义 | 第11-12页 |
1.2 视觉SLAM研究现状 | 第12-16页 |
1.2.1 基于特征点匹配的视觉SLAM | 第13-14页 |
1.2.2 语义SLAM | 第14页 |
1.2.3 动态环境中鲁棒性问题 | 第14-15页 |
1.2.4 多传感器融合SLAM | 第15-16页 |
1.3 多目标跟踪研究现状 | 第16-17页 |
1.4 本文的主要研究内容 | 第17-19页 |
第2章 运动模型和软件架构 | 第19-28页 |
2.1 引言 | 第19页 |
2.2 移动机器人运动模型的建立 | 第19-22页 |
2.2.1 移动机器人的位姿表示 | 第19-20页 |
2.2.2 前向运动学模型 | 第20-22页 |
2.2.3 机器人运动学约束 | 第22页 |
2.3 视觉SLAM系统框架 | 第22-27页 |
2.3.1 主要数据类型 | 第23-24页 |
2.3.2 多线程架构 | 第24-25页 |
2.3.3 后端优化方法-图优化 | 第25-27页 |
2.4 本章小结 | 第27-28页 |
第3章 基于多传感器融合的SLAM系统 | 第28-44页 |
3.1 引言 | 第28页 |
3.2 SLAM系统前端设计 | 第28-37页 |
3.2.1 特征点的提取与匹配 | 第28-30页 |
3.2.2 基于RANSAC的特征点匹配算法 | 第30-34页 |
3.2.3 相机位姿跟踪 | 第34-35页 |
3.2.4 特征点三角化 | 第35-36页 |
3.2.5 关键帧选取 | 第36-37页 |
3.3 SLAM系统后端设计 | 第37-43页 |
3.3.1 光束法平差非线性优化 | 第37-41页 |
3.3.2 位姿图优化 | 第41-43页 |
3.4 本章小结 | 第43-44页 |
第4章 基于多目标跟踪的SLAM系统 | 第44-64页 |
4.1 引言 | 第44页 |
4.2 系统框架 | 第44-45页 |
4.3 卷积神经网络 | 第45-49页 |
4.3.1 卷积 | 第46-48页 |
4.3.2 激活函数 | 第48-49页 |
4.3.3 池化 | 第49页 |
4.4 目标检测网络 | 第49-58页 |
4.4.1 神经网络架构 | 第50-51页 |
4.4.2 模型误差分析 | 第51-53页 |
4.4.3 反向传播算法 | 第53-56页 |
4.4.4 模型的训练 | 第56-58页 |
4.5 目标位置估计 | 第58-59页 |
4.6 目标的数据关联 | 第59-62页 |
4.7 分辨动静态目标 | 第62-63页 |
4.8 本章小结 | 第63-64页 |
第5章 实验结果与分析 | 第64-73页 |
5.1 引言 | 第64页 |
5.2 基于多传感器融合的SLAM系统实验 | 第64-68页 |
5.2.1 实验平台和场所 | 第64-65页 |
5.2.2 实验对比基准 | 第65-66页 |
5.2.3 实验结果与分析 | 第66-68页 |
5.3 基于多目标跟踪的SLAM系统实验 | 第68-72页 |
5.3.1 RobotCar数据集中测试实验 | 第68-70页 |
5.3.2 KITTI数据集中测试实验 | 第70-72页 |
5.4 本章小结 | 第72-73页 |
结论 | 第73-75页 |
参考文献 | 第75-81页 |
攻读硕士学位期间发表的论文 | 第81-83页 |
致谢 | 第83页 |