摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-20页 |
1.1 课题来源和背景 | 第11页 |
1.2 移动机器人视觉感知应用 | 第11-14页 |
1.3 图像前景提取概述 | 第14-15页 |
1.4 移动机器人应急规划研究现状 | 第15-17页 |
1.5 案例推理CBR概述 | 第17页 |
1.6 深度学习目标检测 | 第17-18页 |
1.7 本文的主要研究内容 | 第18-20页 |
第2章 仿生视觉系统 | 第20-31页 |
2.1 引言 | 第20页 |
2.2 总体方案设计 | 第20-22页 |
2.3 机器人云台及硬件选取 | 第22-24页 |
2.4 移动机器人视觉系统建立 | 第24-30页 |
2.4.1 仿变色龙视觉系统构建 | 第24-27页 |
2.4.2 仿变色龙视觉系统坐标系建立 | 第27-30页 |
2.5 本章小结 | 第30-31页 |
第3章 污染物检测及处理 | 第31-46页 |
3.1 引言 | 第31页 |
3.2 污染物检测 | 第31-35页 |
3.2.1 隔帧差分算法 | 第31-32页 |
3.2.2 ViBe检测算法 | 第32-34页 |
3.2.3 算法以及参数的初步确定 | 第34-35页 |
3.3 图像分析 | 第35-38页 |
3.3.1 图像集合的表示 | 第35-36页 |
3.3.2 形态学的基本运算 | 第36-38页 |
3.4 污染物信息提取 | 第38-41页 |
3.4.1 连通区域的处理 | 第38-39页 |
3.4.2 污染物的特征提取 | 第39-41页 |
3.5 小污染图像后处理 | 第41-43页 |
3.6 污染区域分布 | 第43-45页 |
3.7 本章小结 | 第45-46页 |
第4章 机器人视觉受污后的应急规划 | 第46-66页 |
4.1 引言 | 第46-47页 |
4.2 深度学习目标检测 | 第47-53页 |
4.2.1 深度学习框架选择 | 第47-48页 |
4.2.2 基于Faster R-cnn目标检测 | 第48-51页 |
4.2.3 制作数据并训练 | 第51-53页 |
4.3 基于CBR的摄像头受污案例库建立 | 第53-57页 |
4.4 视觉受污视场拼接应急规划 | 第57-60页 |
4.4.1 单目受污状态下的视场拼接搜索 | 第57-58页 |
4.4.2 双目受污状态下的视场拼接搜索 | 第58-59页 |
4.4.3 单目受污且通透度低于阈值的视场拼接搜索 | 第59-60页 |
4.5 目标遮挡优化及其目标追踪 | 第60-64页 |
4.5.1 遮挡现象 | 第61-62页 |
4.5.2 摄像机动作优化 | 第62-64页 |
4.6 本章小结 | 第64-66页 |
第5章 实验研究 | 第66-85页 |
5.1 引言 | 第66页 |
5.2 污染物检测实验 | 第66-69页 |
5.2.1 水平硬质地面 | 第66-67页 |
5.2.2 崎岖地面 | 第67-69页 |
5.3 深度学习目标检测算法实验 | 第69-70页 |
5.4 机器人视觉受污后的应急规划 | 第70-82页 |
5.4.1 平坦硬质地面上视觉受污的应急规划 | 第70-76页 |
5.4.2 崎岖沙地上视觉受污的应急规划 | 第76-82页 |
5.5 摄像头灰尘清洁实验 | 第82-84页 |
5.6 本章小结 | 第84-85页 |
结论 | 第85-87页 |
参考文献 | 第87-95页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第95-97页 |
致谢 | 第97页 |