摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 课题背景及研究的目的和意义 | 第8页 |
1.1.1 课题来源 | 第8页 |
1.1.2 研究的背景和意义 | 第8页 |
1.2 巡检机器人视觉系统相关技术的国内外研究现状 | 第8-13页 |
1.2.1 摄像机标定算法的研究现状 | 第8-10页 |
1.2.3 基于显著性模型的目标检测技术研究现状 | 第10-12页 |
1.2.4 指针式仪表识别算法的研究现状 | 第12-13页 |
1.3 本文的主要研究内容 | 第13-15页 |
第2章 自主仪表视觉识别系统设计与分析 | 第15-26页 |
2.1 引言 | 第15页 |
2.2 巡检机器人视觉平台设计 | 第15-18页 |
2.2.1 需求分析 | 第15-16页 |
2.2.2 设计指标 | 第16页 |
2.2.3 运动机构设计 | 第16-18页 |
2.3 视觉系统定位精度实验与分析 | 第18-22页 |
2.3.1 视觉系统定位精度分析 | 第18-20页 |
2.3.2 视觉系统定位精度实验 | 第20-22页 |
2.4 硬件平台设计 | 第22-23页 |
2.5 软件程序设计 | 第23-25页 |
2.6 本章小结 | 第25-26页 |
第3章 基于绝对对偶二次曲面的相机自标定方法的研究 | 第26-38页 |
3.1 引言 | 第26页 |
3.2 摄像机自标定理论基础 | 第26-30页 |
3.2.1 摄像机模型 | 第26-29页 |
3.2.2 绝对二次曲面 | 第29-30页 |
3.2.3 绝对二次曲面的像及其对偶的变换 | 第30页 |
3.3 基于绝对二次曲面对偶像变换的变焦相机标定 | 第30-36页 |
3.3.1 相机参数初始化 | 第30-32页 |
3.3.2 基于像变换的摄像机内参数自标定 | 第32-33页 |
3.3.3 基于本质矩阵恢复摄像机外参数 | 第33-36页 |
3.4 自标定实验结果 | 第36-37页 |
3.5 本章小结 | 第37-38页 |
第4章 基于视觉的目标仪表定位算法的研究 | 第38-49页 |
4.1 引言 | 第38页 |
4.2 基于视觉选择性注意机制的图像预处理算法 | 第38-44页 |
4.2.1 算法分析 | 第38-42页 |
4.2.2 显著性实验与分析 | 第42-44页 |
4.3 基于视觉的云台姿态微调方法 | 第44-48页 |
4.3.1 机器人视觉平台控制原理分析及其设计 | 第45-46页 |
4.3.2 基于视觉的仪表精确定位方法 | 第46-48页 |
4.4 本章小结 | 第48-49页 |
第5章 仪表亮斑处理及其识别算法的研究 | 第49-59页 |
5.1 引言 | 第49页 |
5.2 亮斑产生原理分析 | 第49-50页 |
5.2.1 由镜面反射引起的亮斑 | 第49-50页 |
5.2.2 由雨后表面水珠引起的亮斑 | 第50页 |
5.3 基于显著性分析的光斑去除方法 | 第50-56页 |
5.3.1 常用的高光去除算法 | 第50-51页 |
5.3.2 光斑提取算法流程 | 第51页 |
5.3.3 亮度空间分析 | 第51-53页 |
5.3.4 Exemplar-Based图像修复算法 | 第53-54页 |
5.3.5 光斑实验结果 | 第54-56页 |
5.4 基于轮廓特征的指针式仪表识别 | 第56-58页 |
5.4.1 指针式仪表判读算法整体思路 | 第56-57页 |
5.4.2 轮廓匹配算法 | 第57页 |
5.4.3 指针式仪表判读算法实验与分析 | 第57-58页 |
5.5 本章小结 | 第58-59页 |
结论 | 第59-60页 |
参考文献 | 第60-64页 |
攻读硕士学位期间发表的论文及其它成果 | 第64-66页 |
致谢 | 第66页 |