摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第12-20页 |
1.1 课题的研究背景和意义 | 第12-14页 |
1.2 图像检测法的研究现状 | 第14-18页 |
1.2.1 位移场的设计 | 第14-15页 |
1.2.2 目标对象特征参数的检测 | 第15-16页 |
1.2.3 单目视觉目标定位 | 第16-18页 |
1.3 本文研究目的与主要研究内容 | 第18-19页 |
1.3.1 本文研究目的 | 第18页 |
1.3.2 本文研究的主要内容 | 第18-19页 |
1.4 主要创新点与研究意义 | 第19-20页 |
1.4.1 本文主要创新点 | 第19页 |
1.4.2 本文研究的意义 | 第19-20页 |
第二章 边坡位移检测相关数字图像处理知识 | 第20-35页 |
2.1 引言 | 第20页 |
2.2 数字图像的基本概念 | 第20-22页 |
2.2.1 图像类别 | 第20页 |
2.2.2 数字图像的描述 | 第20页 |
2.2.3 数字图像的分辨率 | 第20-21页 |
2.2.4 像素的邻接性 | 第21-22页 |
2.3 数字图像分析技术理论与方法 | 第22-34页 |
2.3.1 图像分析的基本内容 | 第22-23页 |
2.3.2 图像滤波 | 第23-25页 |
2.3.3 基于颜色特征的感兴趣区域确定 | 第25-27页 |
2.3.4 边缘检测与图像分割 | 第27-32页 |
2.3.5 目标对象的几何特征提取 | 第32-34页 |
2.4 本章小结 | 第34-35页 |
第三章 边坡位移单目检测法 | 第35-44页 |
3.1 引言 | 第35页 |
3.2 单目边坡位移检测法的适用性讨论 | 第35-36页 |
3.3 单目边坡位移检测方法的基本原理 | 第36-37页 |
3.4 标识体的设计 | 第37-41页 |
3.4.1 标识体的分类 | 第37-39页 |
3.4.2 标识体的设计原则 | 第39页 |
3.4.3 标识体的颜色设计 | 第39-40页 |
3.4.4 标识体的大小设计 | 第40-41页 |
3.4.5 标识体的形状设计 | 第41页 |
3.5 边坡位移场的构建 | 第41-42页 |
3.6 边坡位移单目检测的观测场布置和坐标系建立 | 第42-43页 |
3.7 本章小结 | 第43-44页 |
第四章 标识体的识别和特征参数的检测 | 第44-57页 |
4.1 引言 | 第44页 |
4.2 识别模型的建立 | 第44-52页 |
4.2.1 标识体颜色判别 | 第44-47页 |
4.2.2 标识体边缘检测 | 第47-50页 |
4.2.3 标识体形状判别 | 第50-52页 |
4.3 标识体特征参数检测 | 第52-56页 |
4.3.1 内旋法 | 第52-54页 |
4.3.2 内旋法检测结果 | 第54-55页 |
4.3.3 外旋法 | 第55-56页 |
4.4 本章小结 | 第56-57页 |
第五章 空间参数测算和位移变化判别方法研究 | 第57-72页 |
5.1 引言 | 第57页 |
5.2 摄像机成像几何模型 | 第57-63页 |
5.2.1 相关约定 | 第57-58页 |
5.2.2 相关坐标系及其之间的关系 | 第58-60页 |
5.2.3 针孔模型 | 第60-63页 |
5.3 单应矩阵和标识体基准平面坐标测算 | 第63-65页 |
5.3.1 投影关系 | 第63页 |
5.3.2 自由网平差 | 第63-64页 |
5.3.3 标识体基准平面坐标初值的确定 | 第64页 |
5.3.4 单应矩阵的求解和观测标识基准平面坐标的求解 | 第64-65页 |
5.4 三维解算 | 第65-68页 |
5.4.1 观测标识体到摄像机光心的距离计算 | 第65-67页 |
5.4.2 观测标识体到定位标识的距离计算 | 第67页 |
5.4.3 观测标识体三维空间坐标计算 | 第67-68页 |
5.5 空间参数测算仿真实验 | 第68-71页 |
5.5.1 单应矩阵和观测标识的基准平面坐标 | 第68-69页 |
5.5.2 三维解算实验结果 | 第69-71页 |
5.6 本章小节 | 第71-72页 |
第六章 结论和展望 | 第72-73页 |
6.1 结论 | 第72页 |
6.2 展望 | 第72-73页 |
附录 | 第73-79页 |
致谢 | 第79-80页 |
参考文献 | 第80-84页 |
攻读硕士期间取得的研究成果 | 第84页 |