基于新型标定方法的机器人立体视觉系统设计
摘要 | 第1-4页 |
Abstract | 第4-7页 |
1 绪论 | 第7-12页 |
·研究背景 | 第7页 |
·选题意义 | 第7-10页 |
·双目立体视觉技术概述 | 第7-8页 |
·国内外技术现状 | 第8-9页 |
·双目立体视觉研究的意义 | 第9-10页 |
·论文研究目标 | 第10-12页 |
2 立体视觉系统的建模与组成硬件 | 第12-19页 |
·本课题的研究内容 | 第12-13页 |
·主动视觉与被动视觉比较 | 第13-14页 |
·双目立体视觉测量理论 | 第14-16页 |
·立体视觉系统的硬件组成 | 第16-18页 |
·组成硬件 | 第16-17页 |
·定位实验台的建模 | 第17-18页 |
·本章小结 | 第18-19页 |
3 图像的校准标定 | 第19-34页 |
·立体视觉标定概述 | 第19-21页 |
·常用坐标系及其之间变换关系 | 第21-26页 |
·坐标系统的三个层次 | 第22-23页 |
·几种坐标系之间的变换 | 第23-25页 |
·摄像机镜头的误差因素 | 第25-26页 |
·成像建模 | 第26-28页 |
·立体视觉标定途径 | 第28-30页 |
·摄像机内部参数标定过程 | 第28-30页 |
·摄像机外部参数标定过程 | 第30页 |
·对实验数据的后处理 | 第30-33页 |
·对于内参数的实验数据标定处理 | 第30-32页 |
·外参数标定数据处理 | 第32-33页 |
·本章小结 | 第33-34页 |
4 目标信息的特征筛选和空间匹配 | 第34-52页 |
·目标信息的采集及预处理 | 第34-38页 |
·目标信息的采集 | 第34页 |
·目标信息的预处理 | 第34-38页 |
·信息源的融合处理 | 第38-40页 |
·对图像数据的特征提取 | 第40-44页 |
·基于灰度图像的特征提取方法 | 第41-42页 |
·基于彩色图像的特征提取方法 | 第42页 |
·对图像的彩色特征提取 | 第42-44页 |
·目标图像的立体匹配 | 第44-51页 |
·立体图像匹配理论 | 第45页 |
·选择目标图像空间匹配基元 | 第45-47页 |
·匹配控制原则 | 第47页 |
·匹配实现 | 第47-51页 |
·小结 | 第51-52页 |
5 对实验对象的深度恢复和误差分析 | 第52-55页 |
·标定对象的深度恢复 | 第52-53页 |
·实验误差分析 | 第53-54页 |
·本章小结 | 第54-55页 |
6 结论与建议 | 第55-57页 |
·结论 | 第55页 |
·建议 | 第55-57页 |
参考文献 | 第57-60页 |
攻读硕士学位期间发表的论文 | 第60-61页 |
致谢 | 第61-63页 |