基于单目视觉的机器人目标跟随系统研究与实现
摘要 | 第8-9页 |
ABSTRACT | 第9页 |
第1章 绪论 | 第10-16页 |
1.1 课题的研究背景 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.3 论文的主要研究内容与章节安排 | 第14-16页 |
1.3.1 主要工作与研究内容 | 第14-15页 |
1.3.2 章节安排 | 第15-16页 |
第2章 单目视觉目标跟随系统算法理论基础 | 第16-38页 |
2.1 相机模型与坐标系变换 | 第16-22页 |
2.1.1 理想相机模型 | 第16-19页 |
2.1.2 实际相机模型 | 第19-21页 |
2.1.3 世界坐标系与相机坐标系变换 | 第21-22页 |
2.2 CNN理论基础 | 第22-30页 |
2.2.1 CNN基本概念 | 第22-25页 |
2.2.2 CNN基本特点 | 第25-27页 |
2.2.3 CNN常用激活函数 | 第27-28页 |
2.2.4 CNN模型训练 | 第28-30页 |
2.3 目标跟踪算法 | 第30-33页 |
2.3.1 DLT算法 | 第30-31页 |
2.3.2 FCNT算法 | 第31-32页 |
2.3.3 MDNet算法 | 第32-33页 |
2.4 语义分割算法 | 第33-37页 |
2.4.1 FCN算法 | 第34-35页 |
2.4.2 SegNet算法 | 第35页 |
2.4.3 Deeplab算法 | 第35-36页 |
2.4.4 PSPNet算法 | 第36-37页 |
2.5 本章小结 | 第37-38页 |
第3章 视觉目标跟随系统建模与实现 | 第38-55页 |
3.1 机器人通信系统 | 第38-39页 |
3.2 视觉定位算法 | 第39-45页 |
3.2.1 世界平面单应计算 | 第39-42页 |
3.2.2 平面单应矩阵分解 | 第42-43页 |
3.2.3 单目视觉定位 | 第43-45页 |
3.3 目标跟踪算法 | 第45-48页 |
3.3.1 CNN跟踪模型 | 第45-46页 |
3.3.2 跟踪模型训练 | 第46-48页 |
3.4 场景识别算法 | 第48-51页 |
3.4.1 语义分割模型 | 第48-49页 |
3.4.2 分割模型训练 | 第49-51页 |
3.5 地图构建与路径规划 | 第51-54页 |
3.5.1 局部地图生成算法 | 第51-53页 |
3.5.2 路径规划算法 | 第53-54页 |
3.6 本章小结 | 第54-55页 |
第4章 实验结果与分析 | 第55-64页 |
4.1 硬件平台介绍 | 第55-56页 |
4.2 实验结果与分析 | 第56-63页 |
4.2.1 目标定位精度评估 | 第56-57页 |
4.2.2 室内跟随实验 | 第57-60页 |
4.2.3 室外跟随实验 | 第60-62页 |
4.2.4 目标遮挡实验 | 第62-63页 |
4.2.5 系统性能对比 | 第63页 |
4.3 本章小结 | 第63-64页 |
第5章 总结与展望 | 第64-66页 |
5.1 总结 | 第64-65页 |
5.2 展望 | 第65-66页 |
参考文献 | 第66-72页 |
致谢 | 第72-73页 |
硕士期间发表的论文成果 | 第73页 |
参加的科研项目 | 第73页 |
所获奖励与荣誉 | 第73-74页 |
学位论文评阅及答辩情况表 | 第74页 |