| 中文摘要 | 第3-4页 |
| 英文摘要 | 第4-5页 |
| 1 绪论 | 第8-12页 |
| 1.1 研究背景及意义 | 第8页 |
| 1.1.1 研究背景 | 第8页 |
| 1.1.2 研究意义 | 第8页 |
| 1.2 相关领域研究进展 | 第8-11页 |
| 1.2.1 机器人自主返回充电技术进展 | 第8-9页 |
| 1.2.2 机器人视觉导航技术进展 | 第9-11页 |
| 1.3 主要工作及内容安排 | 第11-12页 |
| 2 摄像机标定 | 第12-24页 |
| 2.1 引言 | 第12页 |
| 2.2 本文试验环境概述 | 第12-13页 |
| 2.3 小孔成像模型及坐标系统 | 第13-16页 |
| 2.4 摄像机标定方法概述 | 第16-18页 |
| 2.5 基于张正友平面法标定摄像机 | 第18-22页 |
| 2.5.1 张正友平面标定法 | 第18-19页 |
| 2.5.2 摄像机标定试验 | 第19-22页 |
| 2.6 本章小结 | 第22-24页 |
| 3 自主返回充电远程对接 | 第24-34页 |
| 3.1 引言 | 第24页 |
| 3.2 门梁特征直线提取算法 | 第24-27页 |
| 3.3 建立门梁数学模型 | 第27-29页 |
| 3.3.1 门梁几何特征分析 | 第27页 |
| 3.3.2 门梁数学模型的建立方法 | 第27-28页 |
| 3.3.3 门梁判定法则 | 第28-29页 |
| 3.4 建立房间地图模型 | 第29-30页 |
| 3.5 自主返回充电远程对接运动控制策略 | 第30-31页 |
| 3.6 自主返回充电远程对接试验 | 第31-33页 |
| 3.7 本章小结 | 第33-34页 |
| 4 充电座识别与跟踪 | 第34-64页 |
| 4.1 引言 | 第34页 |
| 4.2 充电座标识设计 | 第34-36页 |
| 4.3 HSV 颜色空间模型 | 第36-39页 |
| 4.3.1 颜色空间选择策略 | 第36-38页 |
| 4.3.2 RGB 与 HSV 的转换算法 | 第38-39页 |
| 4.4 基于 HSV 颜色直方图的目标分割算法 | 第39-51页 |
| 4.4.1 彩色图像分割常用方法 | 第39-40页 |
| 4.4.2 建立 HSV 颜色直方图 | 第40-42页 |
| 4.4.3 基于离线训练模式建立颜色直方图算法 | 第42-47页 |
| 4.4.4 基于 HSV 颜色直方图对彩色图像分割 | 第47-51页 |
| 4.5 基于形状特征参数模型的充电座识别算法 | 第51-55页 |
| 4.5.1 矩形拟合因子和体态比 | 第51-52页 |
| 4.5.2 轮廓筛选算法 | 第52-55页 |
| 4.6 充电座识别试验 | 第55-58页 |
| 4.7 基于 CamShift 算法跟踪充电座 | 第58-63页 |
| 4.7.1 MeanShift 算法用于目标跟踪的原理 | 第58-61页 |
| 4.7.2 基于 CamShift 算法对图像序列中目标的跟踪 | 第61页 |
| 4.7.3 充电座跟踪试验 | 第61-63页 |
| 4.8 本章小结 | 第63-64页 |
| 5 基于小孔成像原理的单目视觉测距 | 第64-74页 |
| 5.1 引言 | 第64页 |
| 5.2 单目视觉测距方法分类 | 第64-66页 |
| 5.3 基于小孔成像原理的单目视觉测距算法 | 第66-69页 |
| 5.4 单目视觉测距试验 | 第69-72页 |
| 5.5 本章小结 | 第72-74页 |
| 6 结论与展望 | 第74-76页 |
| 6.1 工作总结 | 第74-75页 |
| 6.2 研究展望 | 第75-76页 |
| 致谢 | 第76-78页 |
| 参考文献 | 第78-80页 |
| 附录 | 第80页 |
| A. 作者在攻读硕士学位期间发表的论文 | 第80页 |
| B. 作者在攻读硕士学位期间参与的科研项目 | 第80页 |
| C. 作者在攻读硕士学位期间获得的荣誉 | 第80页 |